消息队列 Kafka:入门基础
环境搭建
Kafka 环境搭建参考Kafka官网的Quick Start进行实践,首先下载Kafka,并进行解压:
启动 Kafka
启动 Kafka 运行环境,此时需要自动 zookeeper 和 kafka broker 两个服务,相应的配置文件分别对应于
Zookeeper 配置
相关的配置参数位于
config/zookeeper.properties
,比较重要的配置参数有:
dataDir
:Snapshot 存放路径clientPort
:Client 端口号maxClientCnxns
admin.enableServer
Kafka Server 配置
相关配置参数位于
config/server.properties
,比较重要的配置参数有:
Broker 端配置
broker.id
:Broker ID,默认为 0,在 Kafka 集群中 Broker ID 必须是唯一的,可以随意设定。
保存 Broker 的 Zookeeper 配置
zookeeper.connect
:连接的 zookeeper 信息,如果存在多个配置通过,
进行分割。zookeeper.connection.timeout.ms
:连接 zookeeper 超时时间,单位毫秒
Log 配置
log.dirs
:日志片段的存放路径,可以通过一些,
来分割存放路径
主题配置
num.partitions
:指定新创建的主题默认的日志分区数,分区数越多,并行消费量越大,同时也会导致 Broker 中文件数量越多。
创建 Topic
可以在终端执行bin/kafka-topics.sh
查看它支持的参数以及用法。
向 Topic 写入 Event
Kafka 通过网络和 Broker 进行通信,来实现存储或读取 Broker 中的 Event,一旦收到数据,Broker 会持久化或以容错方式来根据使用者的配置来存储 Event,甚至是永久存储。
输入上述命令会进入输入页面,执行Ctrl-C
退出。
读取 Topic 中数据
数据被持久化存储在 Kafka 中,支持多次读取和多个消费者读取
通过 Kafka Connect 以流形式导入/导出数据
用 Kafka 流处理事件
进阶资料
版权声明: 本文为 InfoQ 作者【正向成长】的原创文章。
原文链接:【http://xie.infoq.cn/article/965283c819537e19541bfcd7b】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论