windows7 本地搭建 ELK 收集项目运行日志
=====
ELK 是 Elasticsearch+Logstash+Kibana 简称
Elasticsearch 是一个分布式的搜索和分析引擎,可以用于全文检索、结构化检索和分析,并能将这三者结合起来。Elasticsearch 基于 Lucene 开发,现在是使用最广的开源搜索引擎之一。
Logstash 简单来说就是一根具备实时数据传输能力的管道,负责将数据信息从管道的输入端传输到管道的输出端,与此同时这根管道还可以让你根据自己的需求在中间加上滤网,Logstash 提供了很多功能强大的滤网以满足你的各种应用场景。
Kibana 是一个开源的分析与可视化平台,设计出来用于和 Elasticsearch 一起使用的。你可以用 kibana 搜索、查看、交互存放在 Elasticsearch 索引里的数据,使用各种不同的图标、表格、地图等,kibana 能够很轻易的展示高级数据分析与可视化。
ELK 下载安装
=======
可以去官网下载中心下载安装:https://elasticsearch.cn/download/(我这里下载的 6.2.2,logstash 下载 zip 版本)
需要提前安装 JDK1.8。
ELK 解压安装
=======
将三个压缩包 fen 别解压
启动 es ?在..elasticsearch-6.2.2\bin\ 目录下 启动?elasticsearch.bat ,浏览器请求:http://localhost:9200/
启动 Kibana ? 在..kibana-6.2.2-windows-x86_64\bin\ 目录下 启动?kibana.bat ,无需修改任何配置。浏览器访问http://localhost:5601/
解压?logstash 在 ?config 目录下 创建文件 logstash.conf
input {
tcp {
#模式选择为 server
mode => "server"
#ip 和端口根据自己情况填写,端口默认 4560,对应下文 logback.xml 里 appender 中的 destination
host => "localhost"
port => 4560
#格式 json
codec => json_lines
}
}
filter {
#过滤器,根据需要填写
}
output {
elasticsearch {
action => "index"
#这里是 es 的地址,多个 es 要写成数组的形式
hosts => "localhost:9200"
#用于 kibana 过滤,可以填项目名称
index => "applog"
}
}
在 bin 目录下 打开 cmd ?命令窗口 执行
logstash.bat -f ../config/logstash.conf
报错?
解决:打开 logstash-6.2.2\bin 目录 下?logstash.bat ? 52 行 ?将?%CLASSPATH% ? 加上双引号
重新启动?
不报错就是启动成
功。这样 ELK 日志收集系统就搭好了。
建一个 springboot 项目 修改 logback.xml 添加
<appender name="stash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
<destination>localhost:4560</destination>
<encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder" />
</appender>
<root level="TRACE">
<appender-ref ref="stash" />
</root>
注意:destination 要与前边配置文件中的相同。
pom.xml 中添加依赖
评论