• Logstash 知识
    • 基础知识
      • logstash 5.5.0 安装
      • logstash 2.4.1 安装
    • 配置文件中的 Filter 讲解
    • 配置文件中的 multiline 多行内容收集插件讲解
    • 案例
      • 测试模式
        • 自己写正则表达式,匹配后输出到控制台先看下:
        • 读取文件,输出到控制台先看下:
      • Nginx 日志收集
        • 进一步优化:把 nginx 的日志输出格式改为 json
      • Tomcat 日志收集
      • MySQL 慢 SQL 日志收集
      • Logstash 不直接写到 ES 先写到 Redis 再写到 ES
        • 一台 Logstash 把数据写到 Redis
        • 一台 Logstash 把数据从 Redis 读取出来写到 ES
      • Logstash 不直接写到 ES 先写到 MQ 再写到 ES
        • 一台 Logstash 把数据写到 rabbitMQ
        • 一台 Logstash 把数据从 rabbitMQ 读取出来写到 ES (还未测试)
    • 资料

    Logstash 知识

    基础知识

    • 基于 ruby 写的
    • 官网文档:https://www.elastic.co/guide/en/logstash/5.2/first-event.html
    • 如果是通过网络来收集,并不需要所有机子都装,但是如果是要通过读取文件来收集,那文件所在的那个机子就的安装
    • 配置文件的写法格式:https://www.elastic.co/guide/en/logstash/5.2/configuration-file-structure.html

    logstash 5.5.0 安装

    • 假设你已经看了 Elasticsearch 专题文,并且设置了仓库地址:Elasticsearch 相关知识
    • 安装:yum install -y logstash

    logstash 2.4.1 安装

    • logstash 基于 ruby,也需要 JDK 环境
    • 如果是通过网络来收集,并不需要所有机子都装,但是如果是要通过读取文件来收集,那文件所在的那个机子就的安装 logstash
    • 安装:
      • 切换到存放目录:cd /usr/program/elk
      • 解压:tar zxvf logstash-2.4.1.tar.gz
    • 切换到 root 用户下,启动 logstash
    • 带控制台的启动(比较慢)进行最简单的 hello world 测试:/usr/program/elk/logstash-2.4.1/bin/logstash -e 'input { stdin { } } output { stdout { codec => rubydebug} }'
      • 启动后显示如下内容:
    1. Settings: Default pipeline workers: 1
    2. Pipeline main started
    • 然后此时的光标是为可输入状态,我们输入:hello world 回车,然后应该会得到这样的结果:
    1. {
    2. "message" => "hello world",
    3. "@version" => "1",
    4. "@timestamp" => "2017-03-14T06:56:44.690Z",
    5. "host" => "youmeeklocalhost"
    6. }
    • 现在进一步加深,把控制台输入的内容放在 elasticsearch 索引中
    • 记得先切换到 elasticsearch 用户下,然后先启动 elasticsearch。先确保 elasticsearch 集群是启动的。
    • 带控制台的启动(比较慢):/usr/program/elk/logstash-2.4.1/bin/logstash -e 'input { stdin { } } output { elasticsearch { hosts => ["192.168.1.127:9200"] } }'
      • 启动后显示如下内容:
    1. Settings: Default pipeline workers: 1
    2. Pipeline main started
    • 然后此时的光标是为可输入状态,我们输入任意内容回车,然后访问 elasticsearch 的 head 插件控制台:http://192.168.1.127:9200/_plugin/head/
    • 然后你可以看到有一个类似这样的名称格式的索引:logstash-2017.03.14,这一步必须有,等下 kibana 会用到这个索引

    配置文件中的 Filter 讲解

    • grok 比较耗 CPU 能少用就尽量少用
    • 主要讲解 grok 这个插件,官网资料:https://www.elastic.co/guide/en/logstash/5.2/plugins-filters-grok.html
    • 官网给我们整理的 120 个正则表达式变量:https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns
      • 内置的变量格式为,eg:%{IP}
      • 而这个格式 %{IP:client} 表示把日志中匹配 IP 格式的内容存储到 ES 中的 client 域(字段)中,这样 ES 界面就有单独字段查看,方便。
    • 安装完 logstash 本地也是有这些文件的,路径:/usr/program/elk/logstash-2.4.1/vendor/bundle/jruby/1.9/gems/logstash-patterns-core-2.0.5/patterns
    • 官网简单的日志讲解:
    • 新建 配置文件:vim /usr/program/elk/logstash-2.4.1/config/filter-grok-test.conf
    1. input {
    2. stdin {
    3. }
    4. }
    5. filter {
    6. grok {
    7. match => { "message" => "%{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}" }
    8. }
    9. }
    10. output {
    11. elasticsearch {
    12. hosts => ["192.168.1.127:9200"]
    13. index => "filter-grok-test"
    14. }
    15. }
    • 启动 Logstash 并加载该配置文件:/usr/program/elk/logstash-2.4.1/bin/logstash -f /usr/program/elk/logstash-2.4.1/config/filter-grok-test.conf
      • 然后我们在交互界面中分别输入下面内容:
        • 55.3.244.1 GET /index.html 15824 0.043
        • 125.4.234.22 GET /GitNavi.html 124 0.13
      • 然后你开始关注 elasticsearch 集群的索引变化。

    配置文件中的 multiline 多行内容收集插件讲解

    • 配置的格式如下:
    • 在 file 中的:codec => multiline
    1. input {
    2. file {
    3. path => ["/usr/program/tomcat8/logs/logbackOutFile.log.*.log"]
    4. type => "tomcat-log"
    5. start_position => "beginning"
    6. codec => multiline {
    7. pattern => "^\["
    8. negate => true
    9. what => "previous"
    10. }
    11. }
    12. }
    13. output {
    14. if [type] == "tomcat-log" {
    15. elasticsearch {
    16. hosts => ["192.168.1.127:9200"]
    17. index => "tomcat-log-%{+YYYY.MM.dd}"
    18. }
    19. }
    20. }

    案例

    测试模式

    自己写正则表达式,匹配后输出到控制台先看下:

    • 新建目录(如果存在就不用):mkdir -p /usr/program/elk/logstash-2.4.1/config
    • 新建 配置文件:vim /usr/program/elk/logstash-2.4.1/config/regexp-test.conf
    1. input {
    2. stdin {
    3. codec => multiline {
    4. pattern => "^\["
    5. negate => true
    6. what => "previous"
    7. }
    8. }
    9. }
    10. output {
    11. stdout {
    12. codec => "rubydebug"
    13. }
    14. }
    • 启动 Logstash 并加载该配置文件:/usr/program/elk/logstash-2.4.1/bin/logstash -f /usr/program/elk/logstash-2.4.1/config/regexp-test.conf

    读取文件,输出到控制台先看下:

    • 新建目录(如果存在就不用):mkdir -p /usr/program/elk/logstash-2.4.1/config
    • 新建 配置文件:vim /usr/program/elk/logstash-2.4.1/config/file-test.conf
    1. input {
    2. file {
    3. path => ["/var/log/nginx/access.log"]
    4. type => "nginx-access-log"
    5. start_position => "beginning"
    6. }
    7. }
    8. output {
    9. stdout {
    10. codec => "rubydebug"
    11. }
    12. }
    • 启动 Logstash 并加载该配置文件:/usr/program/elk/logstash-2.4.1/bin/logstash -f /usr/program/elk/logstash-2.4.1/config/regexp-test.conf

    Nginx 日志收集

    • 机子:192.168.1.121
      • Nginx 日志位置:
        • /var/log/nginx/access.log
        • /var/log/nginx/error.log
    • 安装 Logstash 过程请看:ELK 日志收集系统安装和配置
    • 新建目录(如果存在就不用):mkdir -p /usr/program/elk/logstash-2.4.1/config
    • 新建 配置文件:vim /usr/program/elk/logstash-2.4.1/config/nginx.conf
    1. input {
    2. file {
    3. path => ["/var/log/nginx/access.log"]
    4. type => "nginx-access-log"
    5. start_position => "beginning"
    6. }
    7. file {
    8. path => ["/var/log/nginx/error.log"]
    9. type => "nginx-error-log"
    10. start_position => "beginning"
    11. }
    12. }
    13. output {
    14. if [type] == "nginx-access-log" {
    15. elasticsearch {
    16. hosts => ["192.168.1.127:9200"]
    17. index => "nginx-access-log"
    18. }
    19. }
    20. if [type] == "nginx-error-log" {
    21. elasticsearch {
    22. hosts => ["192.168.1.127:9200"]
    23. index => "nginx-error-log"
    24. }
    25. }
    26. }
    • 启动 Logstash 并加载该配置文件:/usr/program/elk/logstash-2.4.1/bin/logstash -f /usr/program/elk/logstash-2.4.1/config/nginx.conf
    • 然后你开始访问 nginx,再关注 elasticsearch 集群的索引变化,如果有新增索引那就表示可以了。

    进一步优化:把 nginx 的日志输出格式改为 json

    • 配置 nginx 访问日志的输出格式:vim /usr/local/nginx/conf/nginx.conf
    1. user root;
    2. worker_processes 1;
    3. events {
    4. worker_connections 1024;
    5. }
    6. http {
    7. include mime.types;
    8. default_type application/octet-stream;
    9. sendfile on;
    10. keepalive_timeout 65;
    11. log_format json '{"@timestamp":"$time_iso8601",'
    12. '"host":"$server_addr",'
    13. '"clientip":"$remote_addr",'
    14. '"size":$body_bytes_sent,'
    15. '"responsetime":$request_time,'
    16. '"upstreamtime":"$upstream_response_time",'
    17. '"upstreamhost":"$upstream_addr",'
    18. '"http_host":"$host",'
    19. '"url":"$uri",'
    20. '"xff":"$http_x_forwarded_for",'
    21. '"referer":"$http_referer",'
    22. '"agent":"$http_user_agent",'
    23. '"status":"$status"}';
    24. #全局日志
    25. access_log /var/log/nginx/access.log;
    26. error_log /var/log/nginx/error.log;
    27. server {
    28. listen 80;
    29. server_name localhost;
    30. # 针对服务的日志输出
    31. access_log /var/log/nginx/access-json.log json;
    32. location / {
    33. root html;
    34. index index.html index.htm;
    35. }
    36. error_page 500 502 503 504 /50x.html;
    37. location = /50x.html {
    38. root html;
    39. }
    40. }
    41. }
    • 修改 Logstash 的收集
    • 编辑 配置文件:vim /usr/program/elk/logstash-2.4.1/config/nginx.conf
    1. input {
    2. file {
    3. path => ["/var/log/nginx/access-json.log"]
    4. codec => json
    5. type => "nginx-access-json-log"
    6. start_position => "beginning"
    7. }
    8. }
    9. output {
    10. if [type] == "nginx-access-json-log" {
    11. elasticsearch {
    12. hosts => ["192.168.1.127:9200"]
    13. index => "nginx-access-json-log"
    14. }
    15. }
    16. }
    • 启动 Logstash 并加载该配置文件:/usr/program/elk/logstash-2.4.1/bin/logstash -f /usr/program/elk/logstash-2.4.1/config/nginx.conf
    • 然后你开始访问 nginx,再关注 elasticsearch 集群的索引变化,如果有新增索引那就表示可以了。

    Tomcat 日志收集

    • 机子:192.168.1.121
      • Tomcat 日志位置:/usr/program/tomcat8/logs
    • 安装 Logstash 过程请看:ELK 日志收集系统安装和配置
    • 新建目录(如果存在就不用):mkdir -p /usr/program/elk/logstash-2.4.1/config
    • 新建 配置文件:vim /usr/program/elk/logstash-2.4.1/config/tomcat.conf
    1. input {
    2. file {
    3. path => ["/usr/program/tomcat8/logs/logbackOutFile.log.*.log"]
    4. type => "tomcat-log"
    5. start_position => "beginning"
    6. codec => multiline {
    7. pattern => "^\["
    8. negate => true
    9. what => "previous"
    10. }
    11. }
    12. }
    13. output {
    14. if [type] == "tomcat-log" {
    15. elasticsearch {
    16. hosts => ["192.168.1.127:9200"]
    17. index => "tomcat-log-%{+YYYY.MM.dd}"
    18. }
    19. }
    20. }
    • 启动 Logstash 并加载该配置文件:/usr/program/elk/logstash-2.4.1/bin/logstash -f /usr/program/elk/logstash-2.4.1/config/tomcat.conf
    • 然后你开始访问 nginx,再关注 elasticsearch 集群的索引变化,如果有新增索引那就表示可以了。

    MySQL 慢 SQL 日志收集

    • 其他的细节都跟上面一样不多说了,配置文件这里需要用到 grok 进行正则的拆分
    • 这里有资料,我觉得别人已经说得很好了(Google 关键字:grok mysql slow):
      • http://soft.dog/2016/01/30/logstash-mysql-slow-log/
      • https://kibana.logstash.es/content/logstash/examples/mysql-slow.html
      • https://leejo.github.io/2013/11/21/parsing_mysql_slow_query_log_with_logstash/
      • https://www.phase2technology.com/blog/adding-mysql-slow-query-logs-to-logstash/
      • https://discuss.elastic.co/t/grok-filter-for-mysql-slow-logs-produces-grokparsefailure-but-passes-tests/55799
    1. "(?m)^#\s+User@Host:\s+%{USER:user}\[[^\]]+\]\s+@\s+%{USER:clienthost}\s+\[(?:%{IP:clientip})?\]\s+Id:\s+%{NUMBER:id:int}\n#\s+Schema:\s+%{USER:schema}\s+Last_errno:\s+%{NUMBER:lasterrorno:int}\s+Killed:\s+%{NUMBER:killedno:int}\n#\s+Query_time:\s+%{NUMBER:query_time:float}\s+Lock_time:\s+%{NUMBER:lock_time:float}\s+Rows_sent:\s+%{NUMBER:rows_sent:int}\s+Rows_examined:\s+%{NUMBER:rows_examined:int}\s+Rows_affected:\s+%{NUMBER:rows_affected:int}\n#\s+Bytes_sent:\s+%{NUMBER:bytes_sent:int}\n\s*(?:use\s+%{USER:usedatabase};\s*\n)?SET\s+timestamp=%{NUMBER:timestamp};\n\s*(?<query>(?<action>\w+)\b.*)\s*(?:\n#\s+Time)?.*$"

    Logstash 不直接写到 ES 先写到 Redis 再写到 ES

    • 官网 Redis 插件使用说明:https://www.elastic.co/guide/en/logstash/2.4/plugins-inputs-redis.html

    一台 Logstash 把数据写到 Redis

    • Redis 机器 IP:192.168.1.125
    • Logstash 机器 IP:192.168.1.121
    • Logstash 机器 新建 配置文件:vim /usr/program/elk/logstash-2.4.1/config/redis-test.conf
    1. input {
    2. stdin {
    3. }
    4. }
    5. output {
    6. redis {
    7. host => "192.168.1.125"
    8. port => "6379"
    9. db => "2"
    10. data_type => "list"
    11. key => "gitnavi-logstash-info"
    12. }
    13. }
    • 启动 Logstash 并加载该配置文件:/usr/program/elk/logstash-2.4.1/bin/logstash -f /usr/program/elk/logstash-2.4.1/config/redis-test.conf
      • 然后我们在交互界面中分别输入下面内容:
      • hello 回车
      • world 回车
    • 进入 Redis 机器上的数据:
      • 进入 redis 交互端:redis-cli
      • 查询 db2:select 2
      • 查询 db2 下的所有内容:keys *,可以看到有一个:”gitnavi-logstash-info”
      • 查询该 list 类型的数据:LRANGE gitnavi-logstash-info 0 1,正常可以得到这样的数据
    1. 1) "{\"message\":\"hello\",\"@version\":\"1\",\"@timestamp\":\"2017-03-15T15:23:35.064Z\",\"host\":\"youmeekhost\"}"
    2. 2) "{\"message\":\"world\",\"@version\":\"1\",\"@timestamp\":\"2017-03-15T15:23:37.245Z\",\"host\":\"youmeekhost\"}"

    一台 Logstash 把数据从 Redis 读取出来写到 ES

    • Redis 机器 IP:192.168.1.125
    • Logstash 机器 IP:192.168.1.125
    • Logstash 机器 新建 配置文件:vim /usr/program/elk/logstash-2.4.1/config/redis-test.conf
    1. input {
    2. redis {
    3. type => "redis-log"
    4. host => "192.168.1.125"
    5. port => "6379"
    6. db => "2"
    7. data_type => "list"
    8. key => "gitnavi-logstash-info"
    9. }
    10. }
    11. output {
    12. if [type] == "redis-log" {
    13. elasticsearch {
    14. hosts => ["192.168.1.127:9200"]
    15. index => "redis-log"
    16. }
    17. }
    18. }
    • 启动 Logstash 并加载该配置文件:/usr/program/elk/logstash-2.4.1/bin/logstash -f /usr/program/elk/logstash-2.4.1/config/redis-test.conf
    • 然后现在在 Logstash 机器 IP:192.168.1.121 上继续输入一些内容,看下 ES 集群是否有对应的索引创建。

    Logstash 不直接写到 ES 先写到 MQ 再写到 ES

    • 官网 RabbitMQ 插件使用说明:https://www.elastic.co/guide/en/logstash/2.4/plugins-inputs-rabbitmq.html

    一台 Logstash 把数据写到 rabbitMQ

    1. input {
    2. file {
    3. path => "/usr/local/tomcat/logs/tomcat_json.log"
    4. codec => "json"
    5. type => "tomcat"
    6. }
    7. }
    8. output {
    9. rabbitmq {
    10. host => "RabbitMQ_server"
    11. port => "5672"
    12. vhost => "elk"
    13. exchange => "elk_exchange"
    14. exchange_type => "direct"
    15. key => "elk_key"
    16. user => "liang"
    17. password => "liang123"
    18. }
    19. stdout {
    20. codec => rubydebug
    21. }
    22. }

    一台 Logstash 把数据从 rabbitMQ 读取出来写到 ES (还未测试)

    1. input {
    2. rabbitmq {
    3. host => "127.0.0.1"
    4. subscription_retry_interval_seconds => "5"
    5. vhost => "elk"
    6. exchange => "elk_exchange"
    7. queue => "elk_queue"
    8. durable => "true"
    9. key => "elk_key"
    10. user => "liang"
    11. password => "liang123"
    12. }
    13. }
    14. output {
    15. if [type] == "nginx" {
    16. elasticsearch {
    17. hosts => "192.168.1.127:9200"
    18. user => "logstash"
    19. password => "123456"
    20. index => "nginx-%{+YYYY.MM.dd}"
    21. }
    22. }
    23. if [type] == "tomcat" {
    24. elasticsearch {
    25. hosts => "192.168.1.127:9200"
    26. user => "logstash"
    27. password => "123456"
    28. index => "tomcat-%{+YYYY.MM.dd}"
    29. }
    30. }
    31. stdout {
    32. codec => rubydebug
    33. }
    34. }

    资料

    • https://liang178.github.io/2016/08/11/elk+rabbitmq/
    • <>