写点什么

AI Native 工程化:百度 App AI 互动技术实践

作者:百度Geek说
  • 2023-12-21
    上海
  • 本文字数:6272 字

    阅读完需:约 21 分钟

AI Native工程化:百度App AI互动技术实践

作者 | GodStart


导读

随着 AI 浪潮的兴起,越来越多的应用都在利用大模型重构业务形态,在设计和优化 Prompt 的过程中,我们发现整个 Prompt 测评和优化周期非常长,因此,我们提出了一种 Prompt 生成、评估与迭代的一体化解决方案,以解决 Prompt 测评和优化过程中的挑战,加快业务和大模型结合的速度。


全文 6796 字,预计阅读时间 17 分钟。

01 背景

随着大模型技术在互动 AI 应用中的探索和实践,我们见证了其在用户体验和平台互动氛围方面的显著成效。这种技术不仅改善了用户互动率和参与时长,还为提供更丰富的互动体验开辟了新途径。基于这一认识,我们设定了三个关键的发展目标:首先,扩大大模型在不同互动场景中的应用范围,覆盖更多的内容和用户群体;其次,提高大模型在处理各种互动需求时的能力,以适应更广泛的垂直领域;最后,持续创新和完善基于大型模型的 AI 应用,不断优化和重构互动模式。这些目标的实现将极大地提升用户的参与度,同时使我们的平台互动体验方面保持领先。


在这些策略的实施过程中一系列关键的挑战和痛点逐渐显现。首先是数据分散的问题,多种类型的资源数据散布在不同的消息队列中,使得数据集成变得复杂并导致了架构上的重复。其次,目前的 Prompt 评估过程过分依赖人工参与,这不仅降低了工作效率,也延迟了 Prompt 更新和部署的速度。此外,缺乏一个有效的数据飞轮机制,使我们难以获得全面和清晰的数据反馈,从而制约了对模型输出内容表现的准确评估和快速迭代决策。最后,许多基于大模型的应用需求在处理流程上高度一致,但却需要分别编写多套代码,导致了资源和时间的浪费。


为应对这些挑战,我们提出构建一个大模型应用开发实践平台。此平台旨在简化 AI 应用的数据集成、Prompt 评估和模型迭代流程,通过消除不必要的重复和冗余操作,提高整体效率和产出效果。平台通过集中管理和分析 AI 产生的数据,为 AI 应用提供更精准的数据支持,使 Prompt 生成过程更加优化。这不仅加速了 AI 应用的迭代速度,也为持续优化模型提供了坚实的基础。通过该平台,我们期望在提供高质量 AI 互动体验的同时,实现 AI 技术的高效、可靠落地。

02 基础知识

2.1 提示工程(Prompt Engineering)

尽管一些大模型(如 GPT、文心一言)拥有强大的语言理解和生成能力,但通常缺乏针对特定任务的直接优化。这时往需要通过提示工程(Prompt Engineering)优化大模型的输出。 提示工程可以帮助模型更好地理解特定任务的需求,提高模型在该任务上的性能,同时节省时间和资源,提高用户体验。

2.2 提示工程的生命周期

和传统的研发周期一样,提示工程也有用自己的生命周期,提示工程的生命周期一般分为以下几个步骤。


需求分析:确定模型需要完成的具体任务和目标,以及预期的输出标准。


数据收集与预处理:收集与任务相关的数据,进行必要的清洗和预处理。


初始 Prompt 设计:根据需求设定初始的 Prompt。一般会根据特定的任务确定 Prompt 关键词,期望输出等。


测试与评估:使用设计的 Prompt 对模型进行测试,评估其输出质量。


Prompt 优化:根据测试结果,对 Prompt 进行迭代优化,以提高输出的准确性和相关性。


集成与部署:将优化后的 Prompt 集成到实际应用中。


持续监控与调整:在实际应用中持续监控模型表现,根据反馈进行调整。


一般情况下,Prompt 的测评和优化是一个不断循环的过程,直到 Prompt 的表现符合预期,才会进行集成和部署,在部署后也需要对生产环境所产生的数据进行及时的监控,以便进行进一步的调整和优化。



△提示工程生命周期

03 大模型应用开发实践平台

3.1 平台简介

为了解决上述提到的痛点问题,我们搭建了一个大模型应用开发实践平台,此平台专为互动 AI 应用设计,旨在统一管理和优化基于资源信息生成的互动内容。平台实现了数据流的统一接入和大型语言模型的集中调用,极大地简化了内容生成和处理流程。该平台目前主要拥有六大能力,其整体架构如下图所示。


Prompt 评估:支持根据资源类型进行精确测评,如针对高关注度资源的专项评估。通过在线数据抽样技术,确保测评结果的准确性和可靠性。


Prompt 托管:提供一站式的 Prompt 管理服务,包括 Prompt 的上线和托管,确保 Prompt 的有效管理和应用。


资源选配:支持互动 AI 应用自由选择并一键接入各类资源,为不同类型的互动 AI 应用提供灵活的资源配置选项。


模型切换:平台提供了应用级别的底层大模型一键切换功能,应用可根据需求,在小流量和全流量环境中灵活切换底层模型。


流量控制:根据各个互动 AI 应用对大型模型资源的需求,实现了精细化的应用级别流量控制。


数据飞轮:支持保存请求的上下文信息,并与数据团队协作,打造应用级别的数据飞轮,帮助 AI 应用的速度发展。


3.2 Prompt 测评与发布

3.2.1 Prompt 测评

大模型应用开发实践平台的推出极大地提高了 Prompt 测评的速度和效率,将原本依赖人工操作的繁杂过程转换为了高效的自动化流程,用户只需要提出 Prompt,选择一定的测评条件后等待结果即可。通过下面的 Prompt 测评流程图我们不难看出该平台在 Prompt 测评方面的主要优点包括:


1、高效的数据选取与处理:用户可以在平台中直接选取特定类型的资源数据,如热点资源,进行测评。平台自动提取与这些资源相匹配的数据,并依据用户的配置需求快速组装 prompt。这不仅提升了数据处理的速度,也保证了测评的随机性和准确性。


2、多模型同时测评的能力:平台支持同时选取多组模型进行测评,这允许用户比较不同模型的性能,确保测评结果的可靠性和客观性。这种方法有效地控制了无关变量,使测评结果更为准确和可信。


3、评测流程的整体优化:平台将测评生成的内容持久化存储到结果表中,保障了数据的完整性和可追溯性。这种优化不仅提高了测评过程的效率,也增强了评测结果的稳定性和可靠性。



△Prompt 测评流程

3.2.2 Prompt 上线

大模型应用开发实践平台提供一站式的 Prompt 管理服务,包括 Prompt 的上线和托管,确保 Prompt 的有效管理和应用。如流程图所示,一旦 Prompt 评测完成并满足预定标准,以下步骤将被自动化执行,确保 Prompt 的迅速和无缝上线:


1、自动化流程启动:评测满意度达到设定阈值,人工确认后,自动触发上线流程。


2、上线前检查:系统进行最终检查,包括但不限于模型输出内容的准确性、适用性和合规性。


3、分流测试:选择性地在小流量用户群体中测试 Prompt,评估其实际效果,确保其性能符合预期。


4、全流量部署:一旦分流测试表明 Prompt 表现良好,系统将其部署到全流量环境。


5、性能监控:Prompt 上线后,平台将持续监控其性能,确保其稳定性和效率。


至此,我们的平台完成了 Prompt 测评和上线的全流程高效覆盖。



△prompt 测评上线流程图

3.2.3 打通 QEP(Quality Evaluation Platform)

尽管自动化工具已经在提升效率和降低人力成本方面取得了显著成效,但 Prompt 的质量评估仍然依赖于人工审核。这一过程不仅耗费时间,而且容易受到主观判断的影响,限制了 Prompt 迭代的速度和规模。此外,随着互动 AI 应用的日益增长和复杂化,对于评估机制的要求也随之提高,传统的人工评估方法已难以满足现代化、大规模 AI 应用的迅猛发展需求。


为了解决这些挑战并进一步提升 Prompt 评估的自动化程度,我们决定接入 QEP 平台。QEP 平台能够利用先进的大模型能力对 Prompts 的效果进行自动评估和打分,大幅释放人力资源,让开发团队能够专注于更高价值的创造性工作。通过整合 QEP 的自动化评估工具,我们的大模型应用开发实践平台将能够更精确、更快速地迭代 Prompt,同时确保每次发布的 Prompt 都符合高质量标准。这不仅加速了 Prompt 的优化周期,还为用户提供了更加丰富和精准的互动体验。



△平台 Prompt 测试上线全景图


通过 QEP 的集成,平台的能力得到了全方位的提升,从而实现了在 Prompt 生命周期中的每一个环节的全面覆盖和优化。提高了 Prompt 的自动化生成和优化效率,也加速了 AI 互动应用的整体发展,为用户提供了高质量的互动体验。

3.3 构建数据飞轮

平台已经实现了 Prompt 的测评和上线全流程,但对于 Prompt 在线上的实际表现和用户接受度的直接反馈仍然缺乏。为了弥补这一信息差,我们提出构建数据飞轮,旨在快速获取并分析用户对大模型生产的互动物料的反应。这一步骤对于持续提升 Prompt 的质量和互动效果至关重要。

3.3.1 飞轮数据基础

数据分析是构建飞轮环节中最重要的一环,平台作为所有互动 AI 应用的大模型接入层,天然的拥有数据层面的优势,以平台为基础构建飞轮数据分析主要有下面几个步骤。


1、互动数据的捕获:平台作为所有互动 AI 应用与大模型交互的枢纽,捕获所有大模型产出的物料信息。这包括互动量、展现量等关键指标,为后续分析提供原始数据。


2、数据仓储与集成:通过将这些信息与数据仓储系统结合,我们能够精确地追踪每个互动 AI 应用的表现。这些数据被整合成一个全面的视图,便于进行深入分析和洞察提取。


3、细化的 Prompt 级别飞轮:支持更细化的 prompt 级别的数据飞轮,使业务方能够在 prompt 级别查看效果和用户反馈。这种细化的视角使得优化过程更具针对性。


4、报警机制与反馈循环:当某个 prompt 产生的物料信息获取的线上收益低于预期或平均值时,自动报警机制触发,通知业务方可能存在的问题。这一机制确保及时发现并纠正低效的 Prompt。


5、数据解析与保存:对每日互动量 top 的数据进行格式解析和保存,作为大模型精调的基础数据。这些数据将直接用于优化模型的精确性和响应度。



△平台数据分析流程图


在上面的基础之上我们产出了三分重要数据:


1、日常报表与分析:产出日常的业务报表,提供持续的数据监控和业务分析,为决策提供支撑。


2、问题报警与处理:低于预期的报警与报表及时指出哪些 Prompt 需要关注和优化,确保业务效率。


3、精调数据准备:利用 top 数据作为精调大模型的关键输入,不断完善模型以适应不断变化的用户行为和市场趋势。


通过这种方式,平台的数据飞轮不仅成为了优化 Prompt 的强大工具,也成为了提升整个 AI 互动系统效能的关键环节。这一全面的数据驱动方法保证了 Prompt 的生成不仅基于理论和预测,而且能够实时反应和适应真实的用户反馈和市场动态。

3.3.2 飞轮的全景

平台的数据产出为我们的飞轮拼上了最后一块积木,至此我们包含三个互相依赖且协同工作的关键部分:生产环境的真实数据生成、平台的数据分析,以及 Prompt 的迭代优化的飞轮已经成型。以下是其几个关键的环节。


实时数据采集:在生产环境中部署的 Prompt 不断地产生数据,这些数据反映了用户的互动和反馈。这些实时数据通过平台进行捕获和分析,为后续的 Prompt 优化提供了宝贵的输入。


持续优化循环:基于这些分析结果,我们不断调整 Prompt 的内容和策略,以更好地满足用户需求并提高互动效率。这种迭代过程确保了 Prompt 能够适应用户行为的变化和市场趋势。评估与上线


评估与上线:经过平台的评估后,经过优化的 Prompt 被快速推送到生产环境。在这里,它们继续产生数据,进一步丰富飞轮的数据源。


闭环数据流:生产环境中产生的数据再次被平台捕获并分析,形成了一个自我强化的闭环数据流。这个过程不仅提高了 Prompt 的即时性和相关性,而且确保了 Prompt 的生成和迭代过程紧密地与用户反馈和市场动态同步。


通过数据飞轮,我们实现了数据驱动的 Prompt 优化,确保每个 Prompt 的生成都是基于最新的市场和用户数据。这种全面的数据驱动方法不仅增强了 Prompt 的实用性和吸引力,还提高了整个 AI 互动系统的性能和效率,为用户提供了更加个性化和富有吸引力的互动体验。

04 平台应用场景

通过调研发现各大内容平台中,我们也发现存在大量用户在评论区与 “虚拟角色” 互动的行为,比如蜜雪冰城账号在评论区出现,引起用户大量互动。所以我们提出假想,是否可以在评论区中植入相关的 AI 角色,利用大模型的推理能力和资源本身的内容信息,让大模型扮演某一类角色在资源的评论区进行互动。增强“消遣娱乐动机”并撬动用户破冰,充分激发互动行为,为用户提供情绪价值满足。

4.1 AI 角色的 Prompt 测评和优化

在平台推出前,AI 角色的 Prompt 测评和优化过程效率低下,充满挑战。这个传统过程需要团队在数据分析后手动进行大量操作和多次迭代,常常耗时数周至数月,延缓了 AI 角色的应用部署。通过平台构建我们彻底改变了这一局面。其集成的自动化工具和高效的数据处理能力,极大提升了测评和优化速度,从原本的数周缩短至仅几天。这种效率的飞跃意味着 AI 角色可以迅速投入社交媒体互动,大大加快了整体部署过程。此外,平台的一键式操作功能进一步简化了 AI 角色优化后的推广应用过程,避免了再次开发和上线的繁琐流程。总的来说,平台不仅显著加快了 AI 角色的 Prompt 优化速度,也提高了整体的部署效率和灵活性,为社交媒体互动带来了更快速、流畅的 AI 应用体验。

4.2 构建 AI 角色 Prompt 遇到的问题和解决方案

虽然有着平台的提效,但在 Prompt 构建过程中下面这些困难还是拖慢了 AI 角色 Prompt 的生成速度。


  • 复杂语境理解错误: 在 Prompt 构建过程中,我们遇到了新兴网络用语和含有特定文化背景的幽默梗的理解挑战。尽管大型语言模型具备强大的语言处理能力,它们在理解这些复杂语境时仍然表现出困难。为了解决这一问题,我们实施了细致的数据注释策略,对数据集中的这些难点内容进行了详细的上下文注释,并赋予它们准确的情感标签,从而确保模型能够在正确的语境下理解和运用这些特定表达。同时,我们设计了包含清晰解释性描述的 prompt,这些 prompt 旨在帮助模型更准确地把握用户的意图,并据此生成响应。通过这些改进,模型现在能够更好地理解并回应那些具有特定文化色彩的网络用语和幽默梗。

  • One Sample Shot: 我们初步尝试了 Few-Shot Learning 方法,期望通过提供少量精选的样本来指导模型的理解和生成。然而,我们发现当示例过多时,模型容易过拟合这些具体的样本,而不能泛化到新的、未见过的情况。此外,处理大量的 Few-Shot 示例也增加了计算负担,降低了响应的效率。在 Zero-Shot Learning 尝试中我们发现模型有时无法准确把握复杂的网络用语和文化梗的语义,尤其是当这些梗涉及到细微的情感或讽刺成分时。此外,缺乏具体示例导致模型在生成响应时缺乏上下文相关性。鉴于上述方法的局限性,我们最终采取了 One-Sample Shot 的策略。我们为每个 Prompt 提供一个精心挑选的样本,这个样本足够具代表性,能够涵盖特定语境下的语义和情感。这个简单的示例帮助模型建立起对特定网络用语或梗的基本理解框架。例如,对于一个流行的网络梗,我们不仅提供了梗本身的样本,还包括了关于其起源、使用场景和预期反应的描述。这样的单一但信息丰富的示例使得模型能够在不过度依赖大量样本的情况下,更好地理解和适应新的用语和梗。通过 One-Sample Shot,我们成功地平衡了模型的泛化能力和个性化响应的需求,使 AI 角色能够更加精确地与用户进行互动,同时也确保了计算资源的高效利用。

4.3 AI 角色效果

在评论区上线了 AI 角色后,用户的参与意愿和评论区活跃度明显增高,有效的带动了评论氛围。AI 角色的评论也收到了广大网友的喜爱,纷纷对其点赞和回复。下面是几张 AI 角色的效果展示图。






05 总结与展望

通过构建大模型应用开发实践平台,我们已经成功实现了 Prompt 的测评、上线以及持续监控和调整的全流程,显著加速了互动 AI 应用的迭代速度。但同时我们也面临着新的挑战,互动业务场景的复杂化,多样化使得大模型输出的内容并不总是完全符合具体场景的需求。为了解决这个问题,我们计划引入更为先进的精调技术,如 Supervised Fine-Tuning (SFT) 和 Reinforcement Learning from Human Feedback (RLHF)。这些技术将使我们能够对大模型进行更深层次的定制和优化,从而确保模型输出能够更好地适应复杂的互动场景。


——END——


推荐阅读


揭开事件循环的神秘面纱


百度搜索展现服务重构:进步与优化


百度APP iOS端包体积50M优化实践(七)编译器优化


百度搜索内容HTAP表格存储系统


大模型时代,“人人可AI”的百度开发者平台长什么样?

发布于: 刚刚阅读数: 4
用户头像

百度Geek说

关注

百度官方技术账号 2021-01-22 加入

关注我们,带你了解更多百度技术干货。

评论

发布
暂无评论
AI Native工程化:百度App AI互动技术实践_人工智能_百度Geek说_InfoQ写作社区