写点什么

Elasticsearch+Fluentd+Kafka 搭建日志系统

用户头像
LanLiang
关注
发布于: 2021 年 02 月 04 日
Elasticsearch+Fluentd+Kafka搭建日志系统

前言


由于 logstash 内存占用较大,灵活性相对没那么好,ELK 正在被 EFK 逐步替代.其中本文所讲的 EFK 是 Elasticsearch+Fluentd+Kafka,实际上 K 应该是 Kibana 用于日志的展示,这一块不做演示,本文只讲述数据的采集流程.


前提


  1. docker

  2. docker-compose

  3. apache kafka服务


架构


数据采集流程


数据的产生使用 cadvisor 采集容器的监控数据并将数据传输到 Kafka.


数据的传输链路是这样: Cadvisor->Kafka->Fluentd->elasticsearch


https://image-static.segmentfault.com/117/403/1174037165-5e4b320015f1f_articlex


每一个服务都可以横向扩展,添加服务到日志系统中.


配置文件


docker-compose.yml


version: "3.7"
services: elasticsearch: image: elasticsearch:7.5.1 environment: - discovery.type=single-node #使用单机模式启动 ports: - 9200:9200
cadvisor: image: google/cadvisor command: -storage_driver=kafka -storage_driver_kafka_broker_list=192.168.1.60:9092(kafka服务IP:PORT) -storage_driver_kafka_topic=kafeidou depends_on: - elasticsearch
fluentd: image: lypgcs/fluentd-es-kafka:v1.3.2 volumes: - ./:/etc/fluent - /var/log/fluentd:/var/log/fluentd
复制代码


其中:


  1. cadvisor 产生的数据会传输到 192.168.1.60 这台机器的 kafka 服务,topic 为 kafeidou

  2. elasticsearch 指定为单机模式启动(discovery.type=single-node环境变量),单机模式启动是为了方便实验整体效果


fluent.conf


#<source>#  type http#  port 8888#</source>
<source> @type kafka brokers 192.168.1.60:9092 format json <topic> topic kafeidou </topic></source>
<match **> @type copy
# <store># @type stdout# </store>
<store> @type elasticsearch host 192.168.1.60 port 9200 logstash_format true #target_index_key machine_name logstash_prefix kafeidou logstash_dateformat %Y.%m.%d flush_interval 10s </store></match>
复制代码


其中:


  1. type 为 copy 的插件是为了能够将 fluentd 接收到的数据复制一份,是为了方便调试,将数据打印在控制台或者存储到文件中,这个配置文件默认关闭了,只提供必要的 es 输出插件.


需要时可以将@type stdout这一块打开,调试是否接收到数据.


  1. 输入源也配置了一个 http 的输入配置,默认关闭,也是用于调试,往 fluentd 放入数据.


可以在 linux 上执行下面这条命令:


curl -i -X POST -d 'json={"action":"write","user":"kafeidou"}' http://localhost:8888/mytag
复制代码


  1. target_index_key 参数,这个参数是将数据中的某个字段对应的值作为 es 的索引,例如这个配置文件用的是 machine_name 这个字段内的值作为 es 的索引.


开始部署


在包含 docker-compose.yml 文件和 fluent.conf 文件的目录下执行:

``

docker-compose up -d

``


在查看所有容器都正常工作之后可以查看一下 elasticsearch 是否生成了预期中的数据作为验证,这里使用查看 es 的索引是否有生成以及数据数量来验证:


-bash: -: 未找到命令[root@master kafka]# curl http://192.168.1.60:9200/_cat/indices?vhealth status index                                uuid                   pri rep docs.count docs.deleted store.size pri.store.sizeyellow open   55a4a25feff6                         Fz_5v3suRSasX_Olsp-4tA   1   1       1            0      4kb            4kb
复制代码


也可以直接在浏览器输入 http://192.168.1.60:9200/_cat/indices?v查看结果,会更方便.


可以看到我这里是用了 machine_name 这个字段作为索引值,查询的结果是生成了一个叫55a4a25feff6的索引数据,生成了 1 条数据(docs.count)


到目前为止kafka->fluentd->es这样一个日志收集流程就搭建完成了.


当然了,架构不是固定的.也可以使用fluentd->kafka->es这样的方式进行收集数据.这里不做演示了,无非是修改一下 fluentd.conf 配置文件,将 es 和 kafka 相关的配置做一下对应的位置调换就可以了.


鼓励多看官方文档,在 github 或 fluentd 官网上都可以查找到 fluentd-es 插件和 fluentd-kafka 插件.


始发于 四颗咖啡豆 ,转载请声明出处.

关注公众号->[四颗咖啡豆] 获取最新内容


四颗咖啡豆



发布于: 2021 年 02 月 04 日阅读数: 38
用户头像

LanLiang

关注

天道酬勤 2018.04.28 加入

爱好开源,追随云原生。 github.com/liangyuanpeng 公众号:四颗咖啡豆

评论

发布
暂无评论
Elasticsearch+Fluentd+Kafka搭建日志系统