硬核 Prompt 赏析:与 Auto-GPT 的“契约”
Auto-GPT 的 Prompt 带来的“硬核”启示:人与 AI 的契约。
在之前的 AI 日课中,我多次提到 Prompt Engineering 的重要性:
AI日课@20230413:Prompt Engineering 02 - 原则
AI日课@20230412:Prompt Engineering
AI日课@20230411:Prompt的三个层次和三个“万万没想到!”
尽管如此,在看到最近火热的 Auto-GPT 的 Prompt 的时候,还是挺震惊的:这个只需用户设定目标就能全自动完成任务的 AI,也是通过 Prompt Engineering 来实现的!但这个 Prompt 超出了我之前看到的非常简单的、完成单个任务的 Prompt,其使用的技巧和原则虽然从大体上符合了
AI日课@20230413:Prompt Engineering 02 - 原则
中提到的
role:你是谁
instruction:要做什么
context:背景信息
examles:如有必要,举例子
requirements:输出的受众、格式等
但其实践的深度和大胆的创新,还是让我惊呼“硬核”。下面就是 Auto-GPT 根据用户设定的目标,产生的“硬核”Prompt
见:https://zhuanlan.zhihu.com/p/622947810
为了让不太熟悉英文的朋友体验一下这个 Prompt 的魅力,我让 GPT-4 将其翻译成了中文:
这份 Prompt 给我的第一感觉是:这是用户和 GPT 之间的一份“契约”!在这份“契约”里,通过条款的方式罗列出 AI 的任务、目标、限制条件、能力范围(命令)、可使用资源、优化策略、输出格式等,特别是其中的限制条件、能力范围(命令)、可使用资源、优化策略这几部分,是在其他的 Prompt 中比较少见的。这种通过“契约”的方式来让 AI 实现目标的方式,可能会成为“自然语言编程”的一个范例,或者范式。
这份 Prompt 给我的另一个感觉是:居然还能这么干!我们此前碰到的 Prompt,往往都是“命令式”的,写邮件、做摘要、列大纲、编程序等任务,不管长短,以及任务背景给得是否详尽,输出格式是否明确,都是给 AI 下一个命令。而 Auto-GPT 在 Prompt 上的创见在于可以在限制条件、能力范围、性能评估等方方面面与 AI 签订“契约”或者说是“合同”,让它按照合同的约定去执行。这个合同非常详尽,条条款款可以很多,列得异常清楚。
Auto-GPT 的大热(Star 数的急剧飙升)让我对 AI 的推理能力坚定了信心。之前网上有过对 AI 推理能力的争论,很多人认为 GPT 仅仅是“预测下一个字”,不具有推理能力。如果 AI 已经能够按照人类约定的、有一定复杂程度、限制了非常多的边界条件的“契约”去执行合同,很难说这个 AI 不具备推理能力。在这个过程中,它展现的理解能力也是非常惊人的。
Auto-GPT 的 Prompt 的另一个启示是:Prompt Engineering 真的非常重要,可以说是非常核心的竞争力。之前我的认识是一旦你看过一个系统的 Prompt,它就没什么秘密可言,从这个角度去看,觉得 Prompt 没什么要紧的。但 Auto-GPT 的 Prompt 让我改变了这种浅薄的看法,它让我领会到,一个设计精巧的 Prompt 的强大威力,是可以解锁大模型的无边法力的。从这个意义上讲,Prompt Engineering 是一个 AI 应用的核心。传统的应用程序的核心可以认为是对数据库的操作,无论是游戏还是电商,其程序的本质都可以概括为:用户通过不同的界面对数据库进行增删改查的操作;基于 LLM 的 AI 程序,其本质可能就是通过不同界面对 Prompt 的操弄。无论是应用程序的开发,还是编程框架的设计,都会围绕这一核心。而谁能为 LLM 设计一套能最大限度解锁其能力的 Prompt 框架,谁就掌握面向 AI 编程的密码。
版权声明: 本文为 InfoQ 作者【无人之路】的原创文章。
原文链接:【http://xie.infoq.cn/article/28e727fa1c26a28cde730abe6】。文章转载请联系作者。
评论