如何通过 Logstash 将 MySQL 数据同步到 ElasticSearch
前言:
最近又重新在看 ElasticSearch 的文档,发现那些 DSL 语法全都忘记了,所以准备写一个用 ES 做储存的 demo 小项目。其实是用 DSL 代替之前项目的 SQL,但是数据以及一些字段还是需要,所以就需要将以前的 MySQL 数据导入到 ElasticSearch 中。
以前的做法是写一个脚本,通过创建索引,创建文档,将 MySQL 数据插入到 ElasticSearch 中,现在想通过 Elastic 中的成员之一——Logstash,来完成初步的导入工作。下面就从基础简单介绍该方式的导入过程吧。
工具清单:
\1. ElasticSearch
\2. Logstash
\3. Java JDK
\4. mysql-connector-java
环境搭建:
首先可以先安装 JDK,配置环境变量,版本 1.8 之类的都可以。ElasticSearch 和 Logstash 可以在 Elastic 官网下载最新版本,最好是两个工具的版本保持一致,目前我这里使用的是 7.8 版本。mysql-connector-java 是一个同步驱动,只需要在启动 logstash 指定目录就可以。
配置 MySQL 同步:
1. jdbc_connection_string
配置示例:jdbc:mysql://IP 地址:端口/数据库名?字符集 &其他配置参数。
2. jdbc_driver_library
同步驱动工具绝对地址,全称 mysql-connector-java-5.1.7-bin.jar,网上可以自行搜索,版本我这里使用的是 5.17。
3. statement_filepath
需要进行执行的 sql 文件,主要是通过 SQL 语句将数据通过到 ES 指令,以下就表示将 room 记录同步到 ES。
4. 附加
导入到 ElasticSearch 的配置,hosts 指定 ES 服务的地址,index 导入时创建的索引名称,document_type 类似于 MYSQL 的表,ducument_id 类似与该表的主键。
启动同步:
\1. 在 Logstash 根目录下创建一个新文件夹 mysqletc,里面放置驱动文件,MySQL 同步配置,MySQL 查询同步指令。
\2. 在当前目录下启动 cmd,输入命令,bin\logstash -f mysqletc\mysql.conf 就可以了。
\3. 最后在 kibana 中的索引管理就可以看到新同步过来的索引了,要数据可以通过 DSL 查看。
评论