写点什么

跨越声音障碍,虚拟数字人「手语翻译官」开发落地实践

作者:阿里技术
  • 2023-02-23
    浙江
  • 本文字数:5196 字

    阅读完需:约 17 分钟

跨越声音障碍,虚拟数字人「手语翻译官」开发落地实践

作者:吴淑明 达摩院机器智能技术团队


当前手语内容覆盖有限,听障人士难以从影音内容中获取更多的信息,在交流场景下也面临着沟通障碍。如何才能提升听障人士在社会生活日常沟通中的效率?本文将为大家分享虚拟数字人「手语翻译官」的技术实现。

一、背景


1.1 用户规模


世界银行的数据显示,全球大约有 11 亿残障人士,全球听障人士约有 7000 万+,中国残疾人总残疾人人数为 8500 万人左右,听障人士约 2780 万,占全国残疾人口的约 30%,每年新增 20 万;浙江有 90 万。全国范围内手语老师数量不足, 专业的手语老师就更是少之又少。


1.2 聋人生活中的困境


  • 与健听人的简单交流,即便使用文字也不能顺畅交流,再加上部分年长受教育程度低的人群,文字交流也困难。


  • 由于听障人群的受教育程度以及独特表达和理解方式,导致他们的文字表述和语法结构与健听人完全不同,即便通过文字也无法便捷无障碍的与健听人沟通。听障人群与健听人之间的沟通障碍,严重影响了听障人群的生活质量。听障人群与健听人的沟通需求主要集中在几下情况:


较复杂的交流,就医、纠纷、水电煤银网办事等具有一定专业性、复杂性的交流场景,需要有一个专业的手语翻译人员协助, 否则就是下面这句话:


晚上熬夜半夜早晨,他老换找位置舒服他妈妈多次断睡性帮他盖好被子别着凉,他有时翻中了我体位置得痛,看我醒酒冲来抱舒服能秒入睡了,哼!等中午他父母要补睡......


听人完全看不懂,这是在说什么?


深度交流:听障人士需要与听人进行深度的交流,通常是有一定专业性、复杂性的交流场景,如就医、水电煤银网办事等;


信息获取难度大:听障人士需要从听人世界的影音内容中获取更多的信息,而当前手语内容覆盖有限。


二、产品设计


2.1 产品调研


2.1.1 调研用户画像


听障人士:


1)听力受损程度在中重度及以上,在参与社会生活方面存在中度障碍,借助我们提供的产品,能有效提升其社会生活日常沟通效率;


2)会相对标准的手语,其通过手语所表达出的信息,在听障人群中,能被大多数听障人士看懂并理解;


3)至少具备普通智能手机使用能力。


听人:


1)与听障人士密切生活的非听障人群,与听障人士有较大的日常交流沟通诉求;


2)公共服务机构(政府、银行、医院、快递、商场等)的工作人员在日常工作中,可能会遇到要为听障人群提供服务的场景。


2.1.2 痛点场景


简单交流:听障人士需要与听人进行简短的交流,对话轮次通常不超过 10 轮即可完成,内容为日常生活所需的交流场景,如日常购物、出行、问询、工作交办;


深度交流:听障人士需要与听人进行深度的交流,通常是有一定专业性、复杂性的交流场景,如就医、水电煤银网办事等;


信息获取:听障人士需要从听人世界的影音内容中获取更多的信息,而当前手语内容覆盖有限;


参加会议:听障人士需要从有声会议中获取会议信息,当前主要通过讯飞的语音识别技术转成文字;


2.1.3 线下调研


场景一:A 开车途中遇停车时,接打视频电话。


停车期间,通过微信视频,和他人进行手语沟通。相比于常人,A 接打视频几乎是秒通,上午 3 小时的观察过程中,约有 20 次左右的视频接打。在车上主要通过车载手机支架固定手机。


分析:听障人士对手机视频通话的依赖较大,视频通话功能使用极为频繁。今天见到的几乎所有的听障朋友,均随身携带充电宝。


场景二:A 到达法院后,寻找联系对象。


A 没有去前台寻求帮助,径直走向电梯,出电梯后观察是否自己要去的地方,经历 1-4-3-2-1 多楼层寻找后,才到前台寻求帮助,打字告诉对方自己要找谁。


分析:和普通人沟通存在一定的障碍,导致听障人士非必要情况下,不会主动寻求常人协助,形成天然的鸿沟。


场景三:A 和法官沟通案件细节。


进入沟通室后,法官建议使用微信平台上的微法院进行图文沟通。但 A 坚持使用手之声 APP,在排队等待后,进入真人手语翻译视频通话。用手机支架将手机放置在桌面后,通过视频里的远程手语翻译,和法官完成了需要进行的沟通。A 先是表达了另一涉案人的近期信息,之后提出要求,在法官给出处理意见后,A 表示认可,并结束通话。适应了加入手语翻译的节奏后,对话过程的障碍相对较小。


分析:虽然能打字进行 IM 对话,但对 A 来说,还是认为远程手语翻译介入后的沟通效率更高。在环境简单不嘈杂,参与对话人数仅为 3 人(A、法官、远程手语翻译)的情况下,是可以进行沟通的。对 A 或是其他听障人士来说,使用手语翻译的效率,比起文字沟通要高很多。输入文字给对方看,适用于日常简短的沟通。如果是一个时间较长较正式的沟通,还是需要稳定的环境和手语翻译的帮助,才能顺利完成。


2.1.4 双向手语翻译的难点


1)我们就是第一人


我们是“首个”以双向手语翻译为目标的项目,实现从 0 到 1 的过程。现阶段同类的手语合成产品,按照自然语言的语序采用逐字翻译,忽视了听障朋友的语言逻辑与健听人语言逻辑的差别,导致听障朋友理解困难。现阶段手语识别还未有成熟的商用产品,精度仍然是最大的挑战。


2)巧妇难为无米之炊


由于听障朋友对外交流有限,已有手语数据存留较少,且具备手语能力的人群数量较少,进一步减缓了数据沉淀的速度。与语音识别、语种互译相比,获取充足、高质量的手语数据难度不言而喻。


3)手语的区域特性


由于听障朋友的活动区域局限,形成大到地区、小到社区的多元化手语打法风格。这对于数据沉淀的覆盖范围,以及数据本身多样性对算法的挑战都十分巨大。


4)手语是视觉语言


手语是一门视觉语言,语言表达顺序与自然语言完全不同且没有固定语法约束。手语生成需要生成符合听障人群表达习惯,便于理解的语言;相当于学习了一门新的语言,而不是单纯的逐字翻译,例如:自然语言中“灭火”在手语中的表达是“火→灭”,因为先看到火才能灭。


5)纯视觉方案的手语识别


相对于现有基于昂贵传感器的手语识别,我们是首个采用纯视觉方案(仅依赖手机摄像头),需要实时精准的图像处理算法研发,从捕获的手语视频中提取有效的空时信息,进行手语识别。


这里涉及实时高效的处理高维度的视频数据,同时要处理手语本身的多元性、多样性表达。这对视觉算法提出了更高的要求。


手语语速快,动作精细和多变,动作间相似度高。


6)工程难度大


业务并发量大:与以往的工程架构不同(接口调用),现阶段提供流媒体服务,若高并发的时候需要大规模的集群和资源调度。


响应延时问题:流媒体本身就有几百毫秒的延时,再加上双向翻译的流程中嵌入了大量的算法模块,导致延时加长。延时翻译非常影响产品的交互体验。


2.2 双向手语翻译


本文主要讲解技术实现,产品上仅仅放了实现后的一些产品使用。大家可以在支付宝上搜索《现声》体验。


产品链路:



2.3 手语合成

可以在数字人手语播报平台进行手语内容的生产:

https://avatar.aliyun.com/#home


三、技术落地


依托云原生技术,池化数字人云渲染服务,实现数字人的不同业务模型下的快速服务,完成手语翻译单设备单工开发及手语合成实时翻译、文本转手语合成翻译、视频转手语合成翻译。


3.1 技术方案设计


1)因为涉及实时图像识别,对于网络带宽的要求非常高,所以我们当前将视觉相关算法和流媒体部署在同一个 pod,从而降低网络开销及识别时延。


2)手语识别技术最大难度是“手语识别的图像数据来源,以及图像数据的标注团队”,技术上必须解决训练数据的生成效率问题。


3)由于听障和听人信息交互方式存在差异,听障朋友给出的是物理世界能形容的事物,整句话是由一堆动/名词组成,还会涉及到倒装,所以必须加一个手语词汇转自然文本的翻译模块。


4)相同与第 3 点,手语合成也需要一个文本转手语模块,将自然文本转换成手语词汇,同时面临第 2 点一样的数据问题。


  • 专有名词解释

    媒体服务:流媒体模块,负责编 &解码,rtc 渠道的订阅和推送,本地视频转码录制,解码后图片推送。

    手语识别:算法模块,按照协定的图片格式输入图片,输出一系列手语词汇。

    手语转文本:算法模块,输入手语词汇,输出自然文本。

    手语合成:算法模块,输入手语词汇,情绪及等级,输出手语 keypose 和 bs 数据。

  • 文本转手语:算法模块,输入自然文本,输出手语词汇,并且传输给 BH 模块。

  • 行为交互逻辑:工程模块,统一决策调用数字人交互逻辑。

  • agent:工程模块,负责各个 POD 容器之间的消息传输。

  • 3D 渲染引擎:渲染模块,负责数字人实时渲染,生成数字人帧数据。


3.2 方案落地


初期产品上希望实现单设备双工模式,确实也实现了一个单设备双工模式,但由于环境噪音依赖终端设备的降噪,手语摄像头安放位置等等因素,最终确定使用单设备单工模式。


3.2.1 单设备单工模式-《现声》


  • 解决 ASR 识别不准确问题, 可实时在线进行人工干预。

  • 解决手语识别不准确的情况下进行人工干预。

  • 单工模式下手语翻译官支持主动打断,这需要依赖行为交互逻辑模块的实现交互逻辑的处理。


实时手语识别链路技术方案



1)手语识别帧数据要求为 10FPS、360P。


2)端上通过 RTC 将帧数据推送上来。


3)media 在数字人没有启动的前提下,会自动向手语转手语词汇模块发送空白帧数据,空白帧数据为全 0 图片数据,算法不会产出任何结果。


4)数字人开始工作后,流媒体解码出第一帧时候,并且发送手语转手语词汇模块,  手语识别才开始工作,手语转手语词汇发送识别结束事件给行为树。


5)手语识别中间会实时返回识别结果,结果为累积数据,并且通过手语识别结果事件发送给行为树模块。


6)行为树模块将手语识别结果发送给手语词汇转自然文本模块。


7)手语词汇转自然文本模块会产生手语识别结束事件,并且进行本地 redis 缓存。


8)行为树决策引擎,等收到手语识别结束后,行为树向前端发送手语识别结束事件,默认回到数字人界面,等待播报内容。


9)如果需要进行语音播报,行为树会发送播报文案给媒体,并且发送文案给前端展示,流媒体合成 tts 后,插入到流媒体里面。


实时手语合成链路技术方案



  • 实时手语合成算法处理方案

    关于手语标注数据,可以参考《手语众包》这一章节。

    算法核心会计算词汇动作与词汇动作之间的过渡帧,及词汇动作到空闲动作的过渡帧,这要求数据标注的时候,尽量标注出空间最接近于空闲动作的那一帧数据。

  • 实时手语合成 unity 处理方案,通过实时渲染加媒体视频编码转 RTC 的方式实现。


行为树编排


核心目的:解决数字人交互过程中, 工程、算法、前端等各个模块对数字人行为变化及 C 端 GUI 交互反馈。抽象数字人行为节点,降低代码开发,通过编排的方式快速实现数字人业务落地。


例如:

用户切换成手语识别时, TTS 要主动打断。

用户呼叫时, 要等待 C 端用户订阅流成功后, 数字人才开始打招呼。

TTS 开始播报是, TTS 文案才显示在前端页面。

TTS 结束播报后, TTS 自动消失, 或者长期维持不变。


1)行为树提供大量的流程控制方法,使得状态之间的改变更加直观;


2)整个游戏 AI 使用树型结构,方便查看与编辑;


3)方便调试和代码编写;


4)最重要的:行为树方便制作编辑器,可以交由策划人员使用。


3.2.2 手语合成


1)算法及协议复用单设备单工流程,修改行为树逻辑实现,仅实现行为树任务流程管理。


2)实时手语翻译、离线文本手语翻译及视频手语翻译保持同一套架构。


3)离线音视频手语合成,因为手语的速度与音频播报速度不一致,针对手语给出的时间消耗是不一样的,所以需要离线音视频手语合成专门做定制。


4)实时手语合成,由 BH 模块复用行为树实现,但是行为树的编排存在差异。


5)离线文本 &离线视频合成由 BH 模块实现定时任务实现。


6)离线音视频手语合成音视频用左对齐的方案实现。


7)离线合成整体的渲染流程与实时渲染保持一致。


8)表情驱动:


  • 文本转手语输入文本,识别用户情感类型及情感强度。

  • 词汇转手语输入用户情感类型和强度,从而输出数字人表情和动作。(表情和动作是事先标注和制作完成的。)

  • 情感分 7 个类别和 3 个强度来进行表情驱动。


四、数据生产


1)数据对于手语来说是最核心组成部分。


  • 数据的产出是特殊人群。

  • 数据的定义和拆解无法靠听人解决。


2)3D 手语动作数据的采集方案、成本等都没有可参考的成功案例。


4.1 3D 数据资产


4.1.1 3D 资产静态生产流程


  • 静态资产包含“原画”,“中之人 3D 超高精度模型 5000 万面”,“高/中/低灰模”,“蒙皮贴图”,“服装道具”,“头发”,“BS&骨骼绑定”,“蒙皮绑定”。静态资产做完之后,才能进入动捕阶段。

  • 为了降低整体的生产成本, 我们打算使用手语老师作为中之人, 防止由于 3D 模型服装道具的变化,引入的动作资产的修改。

  • 人物原型设计主要是人物原画的输出。

  • 模型制作

  • 蒙皮贴图

  • BS 面部绑定

  • keypose 绑定

  • 衣服 &道具制作


4.1.2 3D 动态资产制作


  • 动捕设备确定,最终我们确定使用光学动捕。

  • 手套,使用数据手套进行动捕。

  • 动捕场地和供应商由我们指定。

  • 动捕完成后由指定供应商进行精修。

  • 动捕资产交付上线。


4.2 手语众包


4.2.1 手语词典


难点:如何组织一批无法沟通,特殊领域的群体,生产我们需要的数据。因此我们选择支付宝作为手语众包的载体。


4.2.2 词汇定义


  • 词根:指单一一个手语动作,最小手语颗粒度

  • 融合词汇:由多个词根组成的手语词汇

  • 专有名词:应用于特殊领域的专业词汇

  • 敏感词:指不可以进行播报的词汇,比如涉黄、涉毒等等

  • 一词多义:一个自然词汇有多种打法

  • 相似打法:一种打法可以映射到多个自然词汇上


4.2.3 词典组成



4.2.4 数据标注




发布于: 2 小时前阅读数: 21
用户头像

阿里技术

关注

专注分享阿里技术的丰富实践和前沿创新。 2022-05-24 加入

阿里技术的官方号,专注分享阿里技术的丰富实践、前沿洞察、技术创新、技术人成长经验。阿里技术,与技术人一起创造成长与成就。

评论

发布
暂无评论
跨越声音障碍,虚拟数字人「手语翻译官」开发落地实践_人工智能_阿里技术_InfoQ写作社区