OpenHarmony AI 框架开发指导
一、概述
1、功能简介
AI 业务子系统是 OpenHarmony 提供原生的分布式 AI 能力的子系统。AI 业务子系统提供了统一的 AI 引擎框架,实现算法能力快速插件化集成。
AI 引擎框架主要包含插件管理、模块管理和通信管理模块,完成对 AI 算法能力的生命周期管理和按需部署。插件管理主要实现插件的生命周期管理及插件的按需部署,快速集成 AI 能力插件;模块管理主要实现任务的调度及管理客户端的实例;通信管理主要实现客户端和服务端之间的跨进程通信管理及 AI 服务与插件之间的数据传输。后续,会逐步定义统一的 AI 能力接口,便于 AI 能力的分布式调用。同时,框架提供适配不同推理框架层级的统一推理接口。
AI 引擎框架结构如下图所示。
图 1 AI 引擎框架
2、搭建环境
准备开发板:Hi3516DV300 或 Hi3518EV300
二、技术规范
1、代码管理规范
AI 引擎框架包含 client、server 和 common 三个主要模块,其中 client 提供 server 端连接管理功能,OpenHarmony SDK 在算法对外接口中需封装调用 client 提供的公共接口;server 提供插件加载以及任务管理等功能,各 Plugin 实现由 server 提供的插件接口,完成插件接入;common 提供与平台相关的操作方法、引擎协议以及相关工具类,供其他各模块调用。AI 引擎框架各模块之间的代码依赖关系如下图所示:
图 2 AI 引擎代码依赖关系
建议:插件与 OpenHarmony SDK 在 AI 引擎指定的路径下进行代码开发
在 AI 引擎框架的整体规划中,OpenHarmony SDK 属于 client 端的一部分,插件由 server 端调用,属于 server 端的一部分,因此 AI 引擎框架为接入的插件与 OpenHarmony SDK 规划的路径:
SDK 代码路径://foundation/ai/engine/services/client/algorithm_sdk 示例 1://foundation/ai/engine/services/client/algorithm_sdk/cv 示例 2://foundation/ai/engine/services/client/algorithm_sdk/nlu
插件代码路径://foundation/ai/engine/services/server/plugin 示例 1://foundation/ai/engine/services/server/plugin/cv 示例 2://foundation/ai/engine/services/server/plugin/nlu
规则:插件提供的全部对外接口,统一存放在 AI 业务子系统 interfaces/kits 目录
OpenHarmony SDK 对外接口是 AI 业务子系统提供能力的对外暴露方式,按照 OpenHarmony 的接口管理要求,需统一存放在各子系统的 interfaces/kits 目录中。当前 AI 业务子系统插件对外接口路径为//foundation/ai/engine/interfaces/kits,不同插件可在该路径下添加目录,比如增加 cv 插件,则在路径//foundation/ai/engine/interfaces/kits/cv 下面存放接口文件。
规则:插件编译输出路径必须是在/usr/lib
server 端加载插件是采用 dlopen 方式,只支持在/usr/lib 路径进行,因此插件在编译 so 时,需要在编译配置文件中指定输出路径为/usr/lib。
2、命名规范
SDK 命名规则:领域_关键词<其他信息 1_其他信息 2…>_sdk.so
关于领域,建议使用当前主流简称,比如图片视频相关的使用"cv",语音识别相关的使用“asr”,翻译相关的使用“translation”等,存在其他领域的可增加定义;关键词则需要恰当准确的描述所对应插件的算法能力,比如唤醒词识别,则使用 keyword_spotting;对于其他信息,比如插件支持的芯片类型、国内海外等信息,可在关键词与“sdk”之间依次添加,信息之间以下划线连接;SDK 命名,必须以“_sdk”结尾。
例如:唤醒词识别插件对应的 SDK,只支持麒麟 9000 芯片,适用于中国国内地区适用,则对应的 SDK 命名为:asr_keyword_spotting_kirin9000_china_sdk.so
插件命名规则:领域_关键词<其他信息 1_其他信息 2…>.so
插件与 SDK 存在一一对应的关系,故插件命名的领域、关键词、其他信息等名词解释与要求,均与 SDK 命名要求保持一致。两者唯一的不同之处在于 SDK 命名多了个“_sdk”结尾;比如插件命名为“asr_keyword_spotting.so”,则对应 SDK 命名为“asr_keyword_spotting_sdk.so”。
例如:唤醒词识别插件对应的 SDK,只支持麒麟 9000 芯片,适用于中国国内地区适用,则对应的插件命名为:asr_keyword_spotting_kirin9000_china.so
3、 接口开发规范
规则:SDK 需按算法调用顺序,封装 client 对外提供接口;对于异步插件对应的 SDK,需要实现 client 提供的回调接口 IClientCb
AI 引擎的 client 端对外提供的接口包括 AieClientInit、AieClientPrepare、AieClientSyncProcess、AieClientAsyncProcess、AieClientRelease、AieClientDestroy、AieClientSetOption、AieClientGetOption,SDK 需要根据插件的接口按照顺序至少封装 AieClientInit、AieClientPrepare、AieClientSyncProcess/AieClientAsyncProcess、AieClientRelease、AieClientDestroy 五个接口,否则会出现调用问题或者内存泄漏。比如封装过程遗漏了 AieClientPrepare 接口,则 server 端无法完成插件加载,故后面的接口都无法调用成功。
对于异步插件,SDK 需要实现 IClientCb 接口,用于接收来自 client 端的算法推理结果,并将该结果返回给三方调用者。
规则:SDK 接口实现中,需要保存与 client 交互的相关通用数据
AI 引擎将的 client 端采用单例实现,对接多个 SDK,因此各 SDK 需要保存与 client 交互的通用数据,用于连接 server 端进行任务推理、结果返回等;需保存数据包含 clientInfo、algorithmInfo、configInfo 三种数据类型,定义在 SDK 的成员变量里即可。
建议:SDK 实现 client 定义的 IServiceDeadCb 接口
Server 端是系统常驻进程,以系统能力的形式为多个 client 提供服务;client 定义的 IServiceDeadCb 接口,是在 server 端异常死亡后,会被触发调用。这种异常场景,SDK 可在死亡通知接口中,实现相关操作,比如停止调用或者再次拉起 server 端等。
IServiceDeadCb 接口实现示例:
如上示例,SDK 可在 OnServiceDead()方法中实现自己的操作,比如停止所有的接口调用等等。
规则:SDK 与 plugin 需要使用编解码模块,将特定算法数据转换成 AI 引擎的通用数据类型
插件的推理数据,会由三方调用者通过 client、server 传递到插件中;不同的算法所需要的数据类型是不一致的,比如 cv 的需要图片数据、asr 的需要语音数据;为了适配数据类型的差异,AI 引擎对外提供了对基本数据类型的编解码能力,将不同数据类型转换为 AI 引擎可以使用的通用数据类型。
编码后的数据类型定义:
如上示例,DataInfo 数据结构包括指向数据内存的指针和数据长度两个变量组成。
框架接口使用方法:
1.添加依赖的头文件:"utils/encdec/include/encdec.h"。
2.添加 build.gn 中的依赖项:
include_dirs 添加"//foundation/ai/engine/services/common"。
deps 添加"//foundation/ai/engine/services/common/utils/encdec:encdec" 。
3.编解码示例:
注意:
●编码和解码调用时的参数顺序需要保证一致。
● 编码后 dataInfo 的内存需要调用者手动进行释放。
● server 端和 client 端的内存是分开管理和释放的。
●如果包含共享内存的指针,不需要额外处理。
●如果其他类型的指针,则需要解引用后使用 ProcessEncode/ ProcessDecode。
● 该编解码模块未适配 class 数据类型,不建议使用。
规则:在 SDK 中,对以编解码返回的出参数据类型,需要进行内存释放,否则会出现内存泄漏
编码得到的通用数据,本质上是将不同类型数据封装在同一块内存中,然后将这块内存的首地址与长度封装到结构体中。通过编码返回到 SDK 中的出参数据,在插件中申请了内存,但插件无法释放;因此 SDK 在拿到数据之后,需要对内存进行释放,否则 SDK 将无法拿到数据。
内存释放示例:
规则:plugin 需要实现 server 定义的 IPlugin 接口,并使用宏 PLUGIN_INTERFACE_IMPL 对外提供插件函数指针
Server 端管理的插件内部接口实现逻辑各不相同,为了统一插件的加载流程,AI 引擎定义了插件接口 IPlugin;在运行态,插件是以动态链接库的形式被 AI 引擎框架通过 dlopen 方式加载,各插件需要使用 PLUGIN_INTERFACE_IMPL 语句对外暴露函数指针,否则插件将无法被正常加载使用。
规则:plugin 需要使用 AI 引擎提供的统一数据通道
AI 引擎在 server 与插件之间,提供了一个统一的数据通道,用来处理来自 SDK 的推理请求和来自插件的结果返回;plugin 在推理接口中,需按数据通道完成请求数据的获取以及推理结果的封装。
数据通道使用示例:
示例中 request 和 response 是数据通道的内容主体。server 端会将数据封装在 request 中,传递到插件,插件进行算法处理之后,则需要将结果封装成 response 进行返回。
三、开发指导
1、开发 SDK
SDK 头文件的功能实现是基于对 SDK 的调用映射到对客户端的调用。Client 端提供的接口如下表所示。
表 1 Client 端提供的接口
其中,ConfigInfo,ClientInfo,AlgorithmInfo,DataInfo 的数据结构如下表所示。
表 2 ConfigInfo,ClientInfo,AlgorithmInfo,DataInfo 的数据结构
具体开发过程可参考唤醒词识别 SDK 开发示例
2、开发插件
AI 引擎框架规定了一套算法插件接入规范,各插件需实现规定接口以实现获取插件版本信息、算法推理类型、同步执行算法、异步执行算法、加载算法插件、卸载算法插件、设置算法配置信息、获取指定算法配置信息等功能。(同步算法实现 SyncProcess 接口,异步算法实现 AsyncProcess 接口)。
算法插件类 IPlugin 接口设计如下表所示。
表 3 算法插件类 IPlugin 接口设计
算法插件类接口:
Prepare、SyncProcess、AsyncProcess、Release、SetOption、GetOption 分别于客户端接口 AieClientPrepare、AieClientSyncProcess、AieClientAsyncProcess、AieClientRelease、AieClientSetOption、AieClientGetOption 一一对应;GetInferMode 接口用于返回算法执行类型——同步或异步。
算法插件回调类 IPluginCallback 接口设计如下表所示。
表 4 算法插件回调类 IPluginCallback 接口设计
Request、Response 是 AI 引擎服务端与算法插件进行通信的对象。Request 封装了调用方的请求、输入数据等,而插件主要通过 Response 将运算之后的结果返回给 AI 引擎服务端。
Request 类的属性如下表所示。
表 5 Request 类的属性
Response 类的属性如下表所示。
表 6 Response 类的属性
具体开发过程可参考唤醒词识别插件开发示例
3、开发配置文件
开发者开发的 SDK 通过 AlgorithmInfo 结构体中 algorithmVersion 以及 algorithmType 识别出具体的插件类型,实现插件能力的调用。因此开发者需完成以下步骤:
代码路径//foundation/ai/engine/services/common/protocol/plugin_config/plugin_config_ini/中添加插件的配置文件。
代码路径//foundation/ai/engine/services/common/protocol/plugin_config/中的 aie_algorithm_type.h 文件添加算法类型。
代码路径//foundation/ai/engine/services/server/plugin_manager/include/中的 aie_plugin_info.h 文件添加唤醒词识别的算法名称及其在 ALGORITHM_TYPE_ID_LIST 中的序号。
具体开发过程可参考唤醒词识别配置文件开发示例
四、开发实例
1、唤醒词识别 SDK 的开发示例
在//foundation/ai/engine /interfaces/kits 目录中添加唤醒词识别 SDK 的 API 接口定义,该接口可用三方应用进行调用。如下代码片段即为唤醒词识别定义的 API 接口示例,其相关代码参考路径为://foundation/ai/engine/interfaces/kits/asr/keyword_spotting。
2.在//foundation/ai/engine/services/client/algorithm_sdk 目录中增加 SDK 中 API 接口的具体实现,调用 client 端提供的接口,实现算法插件能力的使用。如下代码片段即为唤醒词识别的 API 接口中 create 方法的具体实现示例,更多详细代码请参考://foundation/ai/engine/services/client/algorithm_sdk/asr/keyword_spotting。
上述代码为 API 接口的具体实现。在示例代码中,SDK 中 create 接口的具体实现即为上述示例代码中 create 方法,该方法调用了 AI 引擎框架 client 端提供的 AieClientInit 及 AieClientPrepare 接口,从而实现与 server 端建立连接及加载算法模型的能力。
说明:SDK 调用 AI 引擎 client 端接口应遵循 AieClientInit->AieClientPrepare->AieClientSyncProcess/AieClientAsyncProcess->AieClientRelease->AieClientDestroy 顺序,否则调用接口会返回错误码。
2、唤醒词识别插件的开发示例
在代码路径//foundation/ai/engine/services/server/plugin 中添加唤醒词识别插件的接口定义(IPlugin),并实现 AI 能力的调用。如下代码片段即实现唤醒词识别的算法插件的接口定义。更多插件开发的相关代码参考路径如下://foundation/ai/engine/services/server/plugin/asr/keyword_spotting
上述代码实现 server 提供的 IPlugin 接口。唤醒词识别的 sample 中调用的 client 端接口与插件中的接口对应关系及其实现功能如下表所示。
表 7 唤醒词识别中 client 端接口与插件中的接口对应关系
注意:
1.接口 AieClientInit、AieClientDestroy 分别用于与 server 端建立和断开连接,未调用到插件算法中,因此插件中无需定义与之对应的接口。
2.唤醒词识别插件需要使用 PLUGIN_INTERFACE_IMPL 语句对外暴露函数指针,否则插件将无法被正常加载使用。
3、唤醒词识别配置文件的开发示例
在代码路径//foundation/ai/engine/services/common/protocol/plugin_config/plugin_config_ini/中添加唤醒词识别的配置文件。
在代码路径//foundation/ai/engine/services/common/protocol/plugin_config/中的 aie_algorithm_type.h 文件添加唤醒词识别算法类型 id。
3.在代码路径//foundation/ai/engine/services/server/plugin_manager/include/中的 aie_plugin_info.h 文件添加唤醒词识别算法名称及在 ALGORITHM_TYPE_ID_LIST 中的序号。
评论