本文发布于Cylon的收藏册,转载请著名原文链接~
1 logstash概述
logstash是基于Jruby语言研发的server/agent结构的日志收集工具,可以在任何一个能产生日志的服务器上部署其agent。agent能同时监控多个产生日志的服务,并把每个服务所产生的日志信息收集并发送给logstash server端。由于收集到的日志信息是分散的,logstash有专门的节点用来将所有的节点收集到的日志信息按时间序列合并在一起形成一个序列,基于这一个序列请求写入并存储在elasticsearch集群中。
kibana是基于node.js开发的elasticsearch的图形用户接口。它可以将用户的搜索语句发送给ES,有ES完成搜索,并且将结果返回。kibana可以将返回的数据,用非常直观的方式(画图)来做趋势展示的。
logstash基于多种数据获取机制,TCP/UDP协议、文件、syslog、windows EventLogs及STDIN等。同时也支持多种数据输出机制。获取到数据后,它支持对数据执行过滤、修改等操作。
logstash基于JRuby语言研发,需要运行在JVM虚拟机之上。工作于agent/server模型。
1.1 logstash工作机制
在每一个产生日志的节点之上部署一个agent,这个agent通常称为shipper
。shipper负责收集日志,并且发送给server端。但是在发送给server端时,为了避免server端可能无法应付大量节点同时发来的信息,会在server端和agent端之间放置一个消息队列,通常称之为broker
。这个消息队列比较常见的使用redis。各agent将数据发送至broker,logstash服务器会从broker中依次取出日志拿来在本地做过滤、修改等操作。在完修改后将其发送至ES集群。
对于logstash而言,server端也是插件式的工作的模式,与ES的不同在于,ES的插件是可有可无的。logstash的除核心外的所有功能都是基于插件来完成的。
1.2 logstash工作流程
logstash的工作模式类似于管道,从指定位置读入数据,而后过滤数据,最后将其输出到指定位置。事实上logstash的工作流程为:input | filter | output
。如无需对数据额外处理,filter可省略。
1.3 logstash插件分类
- input plugin:收集数据
- codec plugin:编码插件
- filter plugin:过滤
- output plugin:输出插件
2 logstash安装下载
官网地址:https://www.elastic.co/cn/products../../images/Logstash
3 logstash的配置使用
/etc../../images/Logstash/conf.d/
路径下所有以.conf
结尾的文件都被当做配置文件使用。对于logstash的配置文件定义,就是定义插件。从哪得到数据。向哪里输出数据。
3.1 logstash的基本配置框架
input{
....
}
filter{
....
}
output{
....
}
简单的
input{
stdin {}
}
output {
stdout{
codec =>rubydebug
}
}
检查配置文件语法是否正确logstash -f /etc../../images/Logstash/conf.d/sample.conf --configtest
$ logstash -f /etc../../images/Logstash/conf.d/sample.conf
hellow owrd
Settings: Default pipeline workers: 1
Pipeline main started
{
"message" => "hellow owrd", #←信息的完整内容。logstash的信息是在input → filter → output之间流动的。
"@version" => "1", #←版本号。
"@timestamp" => "2018-06-04T15:02:47.912Z", #←事件发生时的时间戳。
"host" => "test" #←时间发生的主机。
}
3.2 logstash支持的数据类型
Array:[iteml,item2,…]
Boolean:true,false
Bytes
Codec:编码器。
Hash: key =>value
Number
Password:
Path:文件系统路径。
String:字符串。
logstash还支持字段引用,使用[]
进行引用
3.3 支持的条件判断 ==,!=,<,<=,>,>= 正则匹配=~ !~ in,not in and,or
4 Logstash常用的插件
logstash是高度插件化的,主要分为input
codec
filter
output
插件:
4.1 input插件
4.1.1 File
从指定的文件中读取事件流。其工作特性类似于tail -1f
,能够将日志文件尾部的一行不断的读取出来。
logstash使用FileWatch
(ruby gem库)机制来监听文件变化。filewatch是linux内核中提供的一种功能。filewatch库支持以glob方式展开文件名。因此可以监听多个文件。并且可以将每个文件读取的位置及状态信息保存在.sincedb
数据库中。即使重启logstash后也不会从头读取文件的。.sincedb记录了每个被监听的文件的inode
,major number
,minor nubmer
,pos
。默认情况下位于启动logstash服务的用户家目录下。也可以自行定义位置。另外,file插件还可以自动识别日志的滚动(日志分割)操作。
input{
file{
path => ['/var/log/messages']
type => "system"
start_postition => "beginning"
}
}
output{
stdout{
codec => rubydebug
}
}
4.1.2 UDP
logstash支持通过一个简单的协议来读取信息,如UDP、TCP,说明对方只要通过TCP协议发送时间也是支持的。或者哪怕通过syslog收集事件也是可以的。
logstash通过UDP协议通过网络连接来读取信息,其唯一必须制定的参数为port
,用于指定自己监听的端口,agent可以向服务器端端口发送日志信息。而每个被收集数据的主机使用守护进程向server端发送事件。
input{
udp{
prot => 25826
queue_size => 2000 #←队列大小
workers => 2 #←启动的工作线程数来接收发送的事件。
buffer_size => #←接收缓冲区的大小
}
}
UDP插件实现
collectd:基于C语言开发的一款高度插件式的主机性能监控程序,以守护进程方式运行,能够收集系统性能相关的各种数据;并且能够基于各种存储机制将收集的结果存储下来。collectd本身所收集到的数据可以通过自身的network插件,将自己在本机所收集到的数据发送至其他主机。
collectd在epel源中
yum install collectd -y
collectd的大量.so文件为其模块(插件),每一个模块分别实现每一种相应的功能。其配置文件 /etc/collectd.conf
Hostname "node3.magedu.com"
LoadPlugin syslog
LoadPlugin cpu # cpu性能数据
LoadPlugin df # 磁盘空间使用情况
LoadPlugin interface # 网络接口
LoadPlugin 1oad # 服务器负载
LoadPlugin memory # 内存
LoadPlugin network
<Plugin network>
<server "10.0.0.19" "25826"> #10.0.0.19是logstash主机的地址,25826是其监听的udp端口
</server>
</Plugin
input udp {
port => "25826"
codec => collectd {}
type => "collectd"
}
output{
stdout{
codec => rubydebug
}
}
4.1.3 redis
redis插件主要作用在于从redis中获取数据。它支持redis中的两种方式;支持redis channel(发布频道)以及lists两种方式。logstash从redis读数据,可以基于列表方式进行。也可以基于channel方式进行。也就是说redis可以仅工作在正常模式下,不用启用channel机制,也一样能够使logstash从中获取数据。
对于logstash而言,一般要求redis版本在2.6.0
之后的版本。
4.2 filter插件
filter插件主要用于将event通过output发出之前对其实现某些处理功能。对所收集到的数据当中,期望能够基于某种特定格式进行拆分、组合、过滤其中某些信息,都可以使用filter插件实现。在过滤前后如果有需要,都可以调用codec插件,事先基于某种形式对消息做编码。将处理过数据存往任何可存储位置,需要用到特定于存储位置的输出插件。logstash有众多filter过滤器。
4.2.1 grok
gork是logstash中最重要的插件之一,主要用于分析并结构化文本数据。从web服务器日志读取的日志事件是遵循同种格式的,如:我们只想统计有多少访问IP,但是获取的是一行信息。为了能够方便随后的统计操作,需要将每读到的任何一行日志实现切好。使得对日志分析能够得以进行。目前是logstash中将非结构化日志数据转化为结构化的可查询数据的不二之选。
目前支持处理 syslog
httpd
nginx
等。默认情况下,logstash提供了120种默认grok模式。这些模式定义在patterns
目录下,每个模式都有默认的名称。
rpm -ql logstash|grep "patterns$";
4.2.2 gork语法格式
logstash中grok的语法格式是使用%{}
括起的一组信息使用:
隔开,其中左半段称之为SYNTAX
由半段称之为SEMANTIC
。其中SYNTAX表示grok模板预定义模式中已有的模式名称,SEMANTIC,匹配到的文本的自定义的标识符。
%{SYNTAX:SEMANTIC}
例:
10.0.0.1 GET /index.html 30 0.23
%{IP:client_ip} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}
10.0.0.1 GET /index.html 30 0.23 { “message” => “10.0.0.1 GET /index.html 30 0.23”, “@version” => “1”, “@timestamp” => “2018-05-31T10:34:37.150Z”, “host” => “mysql”, “client_ip” => “10.0.0.1”, “method” => “GET”, “request” => “/index.html”, “bytes” => “30”, “duration” => “0.23” }
input {
stdin {}
}
filter {
grok {
match => {
"message" => "%{IP:client_ip} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}"
}
}
}
output {
stdout { codec => rubydebug }
}
自定义grok模式
grok模式是基于正则表达式的模式编写,其元字符与其他用到正则表达式的工具awk\sed\grep\pcre差别不大
nginx log匹配方式
NGUSERNAME [a-zA-Z\.\@\-\+_%]+
NGUSER %{NGUSERNAME}
NGINXACCESS %{IPORHOST:clientip} - %{NOTSPACE:remote_user} \[%{HTTPDATE:timestamp}\] \"(?:%{WORD:verb} %{NOTSPACE:request}(?: HTTP/%{NUMBER:httpversion})?|%{DATA:rawrequest})\" %{NUMBER:response} (?:%{NUMBER:bytes}|-) %{QS:referrer} %{QS:agent} %{NOTSPACE:http_x_forwarded_for}
LOGSTASH+ELASTICSEARCH+KIBANA处理NGINX访问日志 - CSDN博客
input {
file {
path => ['/var/log/nginx/access.log']
type => "nginxlog"
start_position => "beginning"
}
}
filter {
grok {
match => { "message" => "%{NGINXACCESS}" }
}
}
output {
stdout {
codec => rubydebug
}
}
action 将数据输出到至elasticsearch中后基于什么方式做操作 hosts es主机集群列表。数组 index 存储在es的哪个索引当中
logstash在使用redis做输入或输出插件时,有两种数据类型,用来保存logstash输出的数据list channel
18-elasticsearch集群健康为黄色 - CSDN博客
curl -X PUT 172.16.16.18:9200/gongsufanghua-work_record/_settings -d ‘{ “index” : { “number_of_replicas” : 0 } }’
logstash-input-jdbc同步mysql数据到elasticsearch - 运维学习之路 - SegmentFault 思否
Elasticsearch yellow unassigned_shards 恢复 replicas 节点恢复 - CSDN博客
logstash mysql 准实时同步到 elasticsearch - 简书
5 conditionals
当需要在特定条件下过滤或输出事件。可以使用条件条件判断语句。Logstash中的条件查看和行为与编程语言中的条件相同。条件语句支持if,else if以及else和可以被嵌套。
5.1 语法
if EXPRESSION {
...
} else if EXPRESSION {
...
} else {
...
}
logstash支持以下比较运算符:
==
!=
、<
>
<=
>=
- regexp:
=~
!~
(检查右边的模式与左边的字符串值) - 包含:
in
not in
- 布尔运算符是:
and
or
nand
xor(异或)
- 支持的一元运算符是:
!
注:条件判断语句不包括数学运算符,如下写法logstash会报错
if [seg_num]<[total_seg]-1 {
...
}
5.2 logstash常用条件判断语句
为了避免多个input的数据提交到Elasticsearch后共存于一个索引中。使用index参数来为每个不同的type建立单独的索引。
input{
file{
path=> "/usr/local/elasticsearch-2.3.2/logs/elasticsearch.log.*"
type=> "elasticsearch"
start_position=> "beginning"
}
file{
path=> "/var/log/secure"
type=> "secure"
start_position=> "beginning"
}
}
output{
if [type] == "elasticsearch" {
elasticsearch {
hosts=> ["192.168.44.129:9200"]
index=> "elasticsearch-%{+YYYY-MM}"
}
}
if [type] == "secure" {
elasticsearch {
hosts=> ["192.168.44.129:9200"]
index=> "secure-%{+YYYY-MM}"
}
}
}
使用in运算符来测试字段是否包含特定字符串,键或(对于列表)元素:
filter {
if [foo] in [foobar] {
mutate { add_tag => "field in field" }
}
if [foo] in "foo" {
mutate { add_tag => "field in string" }
}
if "hello" in [greeting] {
mutate { add_tag => "string in field" }
}
if [foo] in ["hello", "world", "foo"] {
mutate { add_tag => "field in list" }
}
if [missing] in [alsomissing] {
mutate { add_tag => "shouldnotexist" }
}
if !("foo" in ["hello", "world"]) {
mutate { add_tag => "shouldexist" }
}
}
在单个条件中指定多个表达式:
if [loglevel] == "ERROR" and [deployment] == "production" {
pagerduty {
...
}
}
本文发布于Cylon的收藏册,转载请著名原文链接~
链接:https://www.oomkill.com/2018/11/logstash/
版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」 许可协议进行许可。