写点什么

基于 KubeEdge 和 Kuiper 的边缘流式数据处理实践

发布于: 2021 年 01 月 20 日
基于 KubeEdge 和 Kuiper 的边缘流式数据处理实践

引言:KubeEdge 是一个开源的边缘计算平台,它在 Kubernetes 原生的容器编排和调度能力之上,扩展实现了 云边协同、计算下沉、海量边缘设备管理、边缘自治等能力。KubeEdge 还将通过插件的形式支持 5G MEC、AI 云边协同等场景,目前在很多领域都已落地应用。


本篇文章主要分享基于 KubeEdge 和 Kuiper 实现边缘流式数据处理的实践经验。


Kuiper : 在边缘的流式处理产品


Kuiper 是从 2019 年初开始研发,在 2019 年 10 月份,发布了第一个版本,一直持续迭代到现在,它的整体架构是一个比较经典的流式处理架构。


产品设计目标:在云端运行的流式处理,像 Spark 与 Flink 可以运行在边缘端


Kuiper 架构图


整体架构可分为 3 部分,左侧为 sources,代表数据来源的位置,数据来源可能是 KubeEdge 里面边缘端的 MQTT macOS broker,也可能是文件、窗口、数据库;


右侧为 Sinks,代表数据处理完成后所要存储的位置,也就是目标系统,目标可以是 MQTT,可以将其存到文件、数据库里面,也可以调用 HTTP service;


中间部分包括这几层,最上层为数据业务逻辑处理,这个层面提供了 SQL statement、Rule Parser,SQL processors 进行处理后并将其转化成 SQL plan;下面层为 Streaming runtime 和 SQL runtime, 运行最终执行出来的 plan;最底层为 storage,用来存储部分消息流出。


Kuiper 使用场景


流式处理:实现在边缘端的实时流式处理

规则引擎:灵活定义规则引擎,实现告警和消息转发

数据格式与协议转换:实现边缘与云端不同类型的数据格式与异构协议之间灵活转换,实现 IT&OT 融合


KubeEdge 与 Kuiper 集成


    部分架构图


Kuiper 是装在 KubeEdge MQTT Broker 后面,整个都运行在边缘端,底下为不同的 Mapper,也就是接入各种各样不同的协议。边缘 MQTT Broker 用来交换消息。


数据处理的类型:

  • 从设备模型文件定义中获取类型定义

  • 将数据转换为 Kuiper 的数据类型

  • 创建流时,可使用 schema-less 流定义


支持的数据类型有 int、string、bool、float


KubeEdge 模型文件和配置


下图为部分配置文件,包括设备的名称、属性、name、data type、Description 等。


部分配置文件


1)保存设备模型文件

2)在 ect/mqtt_source.yaml 中配置模型文件信息

  • KubeEdgeVersion:目前未使用,为适配将来不同的版本模型文件预留

  • KubeEdgeModelFile:模型文件路径

3)通过 config-map 下发配置,保存到相关目录下


Kuiper 使用过程


1) 定义流:类似于数据库中表格的定义

DATASOURCE=”$hw/events/device/+/twin/update”为 KubeEdge 里定义好的 topic。


2)定义并提交规则

  • 用 SQL 实现业务逻辑,并将运行结果发送到指定目标

  • 支持的 SQL

        SELECT/FROM/WHERE/ORDER

        JOIN/GROUP/HAVING

        4 类时间窗口+1 个计数窗口

        60+SQL 函数


3)运行


KubeEdge 中部署 Kuiper 规则

方法一:

1) 运用 Kuiper-Kubernetes-tool

2)该程序为一个工具类,单独运行在容器中,执行通过 config-map 下发的命令配置文件

  • 配置文件中用于指定 kuiper 服务所在的地址和端口等信息

  • 命令文件所在的目录

3) 通过 config-map 下发命令执行文件,该工具定期自动扫描文件,然后执行命令


方法二:Kuiper manager-云边协同管理控制台

另外一种方式是通过管理控制台来管理很多 Kuiper 节点,因为 Kuiper 可以运行在很多节点上。

比如 Kuiper 可以运行在车联网的盒子里面,车联网有很多车,可以通过 Kuiper-manager 把所有的实例都接入进来,统一对其进行规则更新。


第一步是安装插件,我们提供了一些插件的知识,比如要接入不同的源,如果我们这边的源不支持,则可以自己写个插件,将插件进行安装,安装上去之后我们提供安卓插件界面,就可以使用了。


接下来为创建流定义:


下图为数据存储的位置,下图所示为将数据保存到文件系统,进行路径的指定。


下图为可视化的编辑界面,可以进行规则的编写。


应用案例

案例一:国家工业互联网大数据中心


该案例是一个非常典型的使用场景。K8s+CloudCore 部署在云端,将规则通过管理通道下放到 Kuiper,Kuiper 的位置是放在 MQTT broker,会将数据定义,实现数据的清洗。


目前通道有两条,第一条是将处理完的消息发往 Cloud MQTT broker,第二条通道比如本地要做数据持久化,可将其存到 Influxdb 这个持续数据库,我们在边缘发生的一些第三方应用可以直接去调 Influxdb 里面的数据,做一些展示可视化等。底层是通过 Mapper 把不同的数据给接上来。


Kuiper 里规则引擎的使用场景

LF EdgeX Foundry 内置规则引擎,于 2020 年 4 月 Geneva 版本中已经正式发布。



案例二:异构系统对接数据格式转换


实现与 ERP、MES 等 IT 系统数据交换,我们提供了一个非常灵活的扩展能力,包括异构数据通过扩展插件采集后,可以利用 SQL 内置函数或者扩展函数进行快速、灵活处理;


第二点是拿到数据处理结果后,通过 sink 的数据模板可以对分析结果进行转换,灵活适配各类目标系统所需的数据格式和协议,比如同样一条温度大于 30 度的规则,如果要去发送控制设备的指令,并且要发到微信上。这两个不同的目标系统,它所需要的接口和数据是不一样的,但对于这个规则是一样的,那么可以在 data 里面,根据同一条规则触发两个不同的操作,你可以指定不同的 topic,数据即可发送,不需再进行复杂的编程;


第三点是利用 SAP NetWeaver RFC SDK,实现从 SAP 中读取数据,处理并转换后发送到别的异构系统。


性能数据


  • 8000 规则*0.1 消息/秒/规则,共计的 TPS 为 800 条/秒

  • 规则定义

       源:MQTT

     SQL:select temperature from source where temperature>20(90%数据被过滤)

      目标:日志

  • 配置

      AWS:2core*4GB

      Ubuntu

  • 资源使用

       Memory:89%~72%;0.4MB/rule

       GPU:25%


2)AWS t2.micro 配置 10k+/s 消息吞吐


欢迎关注华为云原生团队,我们将为你提供:



我们每日更新关于云原生技术动态、实战进阶、应用案例等;

入群与行业技术大牛,1 万+云原生爱好者一起链接学习;

不定期邀请云原生 OG 级技术大咖分享技术实战

………


发布于: 2021 年 01 月 20 日阅读数: 29
用户头像

还未添加个人签名 2020.02.11 加入

还未添加个人简介

评论

发布
暂无评论
基于 KubeEdge 和 Kuiper 的边缘流式数据处理实践