OpenMLDB Pulsar Connector:高效打通实时数据到特征工程
导读:人工智能工程化落地的关键点之一,在于解决真实业务场景的实时批量预估和实时模型更新问题。更好更快地将线上实时数据转化为 AI 可用的特征,将加速 AI 应用落地的效率及效果。为此,OpenMLDB 和 Apache Pulsar 合作推出 OpenMLDB Pulsar Connector,实现稳定的流式集成,为高效打通实时数据到特征工程提供一条值得期待的清晰路径。
我是黄威,目前是第四范式研发架构师,也是 OpenMLDB 的核心研发。今天主要为大家介绍三个方面的内容:
Pulsar Connector 简介
OpenMLDB Connector on Pulsar 介绍
OpenMLDB Connector on Pulsar 演示
01 Pulsar Connector 简介
Apache Pulsar 是一个云原生的,分布式消息流平台。它可以作为 OpenMLDB 的在线数据源,将实时的数据流导入到 OpenMLDB 在线。Pulsar 提供了 Connector 框架,在此基础上可以与不同系统的对接。我们基于 Connector 框架,开发了 OpenMLDB JDBC Connector,通过它我们就可以无障碍地连接 Pulsar 与 OpenMLDB,Pulsar 的消息将自动地写入 OpenMLDB。
02 OpenMLDB-Pulsar Connector 介绍
1. 定位
OpenMLDB Pulsar Connector,高效打通实时数据到特征工程,大幅提升数据使用效率、助力开发者构建实时数据管道、使企业更专注和更高效的探索数据的商业价值。
在 OpenMLDB 的工作流中,Pulsar Connector(位置如下图所示)帮助开发者轻松地将消息系统 Pulsar 与开源机器学习数据库 OpenMLDB 连接起来,形成一条实时数据流。
2. 功能
Pulsar 可以使用 connector 来连接其他系统。Source connector 可以使其他系统的数据流入 Pulsar,sink connector 可以将消息流出至其他系统。
OpenMLDB Pulsar Connector 支持了 sink 功能,使 Pulsar 消息可以写入到 OpenMLDB 在线存储中。
可以通过 Connector Admin CLI 并结合 sinks 子命令来管理 Pulsar connector(例如,创建、更新、启动、停止、重启、重载、删除以及其他操作)。
3. 优势
想要使 OpenMLDB 与 Pulsar 拥有稳定的流式集成,我们推荐直接使用 Pulsar OpenMLDB connector 。它具备诸多优势,包括但不限于:
易上手。无需编写任何代码,只需进行简单配置,便可通过 OpenMLDB Pulsar Connector 将 Pulsar 的消息流入 OpenMLDB 。简化的数据导入过程能大幅提升企业的数据使用效率。
易扩展。根据不同的业务需求,可以选择在单机或集群上运行 OpenMLDB Pulsar Connector ,助力企业构建实时数据管道。
可持续。OpenMLDB Pulsar Connector 简单的安装和部署过程,使企业能更专注和更高效地探索数据的商业价值。
4.Connector 下载地址
OpenMLDB Pulsar Connector:
03 Connector 演示
1. 流程介绍
Pulsar OpenMLDB connector 用于 OpenMLDB 线上模式的实时数据流接入。使用 connector 的简要流程,如下图所示。我们接下来将详细介绍每一步。
整体上,使用流程可以概括为三步:
创建 connector 前需要启动 OpenMLDB 集群,并创建表。
创建 Pulsar standalone,创建 sink,sink 配置中使用 OpenMLDB 集群的 JDBC 地址。并且,创建用于解析消息的 schema。
向 Pulsar 发送消息,来测试消息是否能自动写入到 OpenMLDB。
2. 关键步骤
注意,为了使演示更简单,本文中将使用 Pulsar Standalone,OpenMLDB 集群和一个简单 JSON 消息生产者程序,来演示 OpenMLDB JDBC Connector 是如何工作的。该 connector 是完全可以在 Pulsar Cluster 中正常使用的。
步骤 1 | 在 OpenMLDB 创建数据库和数据表
① 启动 OpenMLDB 集群
使用 Docker 可以快速启动 OpenMLDB,除此之外,我们还需要创建测试用的表。
提醒:目前只有 OpenMLDB 集群版可以作为 sink 的接收端,数据只会 sink 到集群的在线存储中。
我们更推荐你使用 host network 模式运行 docker,以及绑定文件目录 files,sql 脚本在该目录中。
在 OpenMLDB 容器中,启动集群:
需要注意的是,在 macOS 平台上,即使使用 host 网络,也不支持从容器外部去连接容器内的 OpenMLDB 服务器。但从容器内,去连接别的容器内的 OpenMLDB 服务,是可行的。
② 创建表
我们使用一个脚本快速创建表,脚本内容如下:
执行脚本:
目前,Pulsar 中 JSONSchema 和 JDBC base connector 都不支 java.sql.Timestamp。所以我们使用 long 作为 timestamp 列的数据类型(在 OpenMLDB 可以使用 long 作为时间戳)。
步骤 2 | 启动 Pulsar,创建 sink 和 schem
① 启动 Pulsar Standalone
使用 docker,可以更简单快速地启动 Pulsar。我们推荐你使用 host network 来运行 docker,这样可以避免诸多容器相关的网络连接问题。而且,我们需要使用 pulsar-admin 来进行 sink 创建,这个程序在 Pulsar 镜像内。所以,我们使用 bash 运行容器,在容器内部逐一执行命令。此处,也需要绑定 files 文件目录。
在 Pulsar 容器中,启动 standalone 服务端。
OpenMLDB 服务已经使用了端口 2181,所以此处我们为 Pulsar 重新设置一个 zk 端口。我们将使用端口 2181 来连接 OpenMLDB,但 Pulsar standalone 内的 zk 端口不会对外造成影响。
你可以检查一下 Pulsar 是否正常运行,可以使用 ps 或者检查日志。
ps axu|grep pulsar
当你启动一个本地 standalone 集群,会自动创建 pulic/default namesapce。这个 namespace 用于开发,我们将在此 namespace 中创建 sink。
如果你想要在本地直接启动 Pulsar,可以参考 Set up a standalone Pulsar locally。
链接:https://pulsar.apache.org/docs/en/standalone/
Q&A
Q1: 碰到以下问题是什么原因
A: Pulsar 需要一个未被使用的端口来启动 zk,端口 5181 页已经被使用,需要再更改一下–zookeeper-port 的端口号。
Q2: 8080 端口已被使用?
A: 8080 是 webServicePort 默认配置端口,在 conf/standalone.conf 中,可以更换这个端口。但注意,pulsar-admin 会使用 conf/client.conf 中的 webServiceUrl 进行连接,也需要同步更改。
Q3: 6650 端口已被使用?
A: 需要同步更改 conf/standalone.conf 中的 brokerServicePort 和 conf/client.conf 中的 brokerServiceUrl 配置项。
② Connector 安装(Optional)
前面的步骤中我们绑定了 files 目录,里面已经提供了 connector 的 nar 包。我们可以使用“非内建 connector”模式来设置 connector(即在 sink 配置中指定 archive 配置项,将在下一个步骤中描述)。
但如果你希望将 OpenMLDB connector 作为内建的 connector,你需要创建 connectors 目录,并拷贝 nar 文件到 connectors 目录。
如果在 Pulsar 运行时,你想改变或增加 connector,你可以通知 Pulsar 更新信息:
当 OpenMLDB connector 成为内建 connector 时,它的 sink 类型名为 jdbc-openmldb,你可以直接使用这个类型名来指定使用 OpenMLDB connector。
③ 创建 sink
我们使用 public/default 这个 namespace 来创建 sink, 我们需要一个 sink 的配置文件, 它在 files/pulsar-openmldb-jdbc-sink.yaml,内容如下:
其中:
name:sink 名。
archive:我们使用 archive 来指定 sink connector, 所以这里我们是将 OpenMLDB connector 当作非内建 connector 使用。
input:可以是多个 topic 的名字,本文只使用一个。
config:用于连接 OpenMLDB 集群的 jdbc 配置。
接下来,创建这个 sink 并检查。注意,我们设置的输入 topic 是‘test_openmldb’,后续步骤需要使用到。
④ 创建 Schema
上传 schema 到 topic test_openmldb,schema 类型是 JSON 格式。后续步骤中,我们将生产一样 schema 的 JSON 消息。schema 文件是 files/openmldb-table-schema,内容如下:
上传并检查 schema 的命令,如下所示:
步骤 3 | 测试
① 发送消息
我们使用两条 OpenMLDB 镜像中 data/taxi_tour_table_train_simple.csv 的样本数据,作为测试用的消息。数据如下图所示:
测试用 Producer 关键代码如下:
可以看到,producer 将发送两条消息到 topic test_openmldb。这之后,Pulsar 将读到消息,并将其写入 OpenMLDB 集群的在线存储中。
程序包在 files 中,你可以直接运行它:
② 检查
我们可以检查 Pulsar 中的 sink 状态:
“numReadFromPulsar”: pulsar 发送了 2 条 message 到 sink 实例中。
“numWrittenToSink”: sink 实例向 OpenMLDB 写入 2 条 message。
同样,我们可以在 OpenMLDB 在线存储中查询到这些消息数据。查询脚本 select.sql 内容如下:
在 OpenMLDB 容器中执行脚本:
04 写在最后
1.OpenMLDB 上下游生态体系
为更好降低开发者使用 OpenMLDB 的门槛,OpenMLDB 社区将持续打造面向上下游技术组件的生态圈,为开发者提供更多简单易用的生态 Connector(如下图所示):
面向线上数据生态,如 Kafka, Flin, RabbitMQ, RocketMQ 等
面向离线数据生态,如 HDFS, HBase, Cassandra, S3 等
面向模型构建的算法、框架,例如 XGBoost, LightGBM, TensorFlow, PyTorch, Scikit Learn 等
面向机器学习建模全流程的调度框架、部署工具,例如 Airflow,Kubeflow,DolphinScheduler,Prometheus,Grafana 等
2. OpenMLDB Roadmap v0.5.0
OpenMLDB 社区将于 4 月底发布 v0.5.0 版本(链接:https://github.com/4paradigm/OpenMLDB/issues/1506),届时 OpenMLDB 将具备新特性如下:
窗口预聚合技术,指数级提升长窗口聚合性能
完善的监控, trace 和 profiling 能力,在企业级应用环境中大幅提升稳定性、可观测性、和可分析性
线上存储引擎可插拔以适配不同业务需求,既可以支持基于内存的高性能存储引擎,也可以支持基于外存的大容量低成本存储引擎,还可以支持基于持久内存的存储引擎以在性能和成本间保持平衡
用户自定义函数(UDF)支持,大幅提升易用性和适用性
上下游数据源生态整合,提供线上数据源的 Kafka, Pulsar connectors
05 相关阅读
① https://github.com/4paradigm/OpenMLDB/issues/1506
(OpenMLDB Pulsar Connector)
② https://openmldb.ai/docs/zh/v0.4/about/index.html
(OpenMLDB 文档)
③ https://pulsar.apache.org/docs/en/next/io-connectors/
(Apache Pulsar connector 文档, OpenMLDB Pulsar Connector 位置如图所示)
希望这篇文章能够帮助大家认识 Pulsar Connector 的开发流程,理解 OpenMLDB Connector on Pulsar 是什么样的,了解 Pulsar 如何接入 OpenMLDB。
最后,AI 的进步需要付出多方面的努力,而开放式协作是其中的关键环节,我们期待来自开发者的交流讨论。欢迎大家加入 OpenMLDB 社区,通过下图渠道可加入社区技术交流微信群。
今天的分享就到这里,谢谢大家。
评论