人工智能 ChatGPT 的多种应用:提示词工程
更多软件测试学习资料戳
简介
ChatGPT 的主要优点之一是它能够理解和响应自然语言输入。在日常生活中,沟通本来就是很重要的一门课程,沟通的过程中表达的越清晰,给到的信息越多,那么沟通就越顺畅。
和 ChatGPT 沟通也是同样的道理,如果想要 ChatGPT 给到的信息越准确,越清晰,和它的沟通就至关重要。
如何能和 ChatGPT 建立一个良好的沟通方式呢?其实就是靠提示词 Prompt。
价值
可能很多同学疑惑的点在于,提示词还需要另外去学吗?这个看起来貌似有手就行的操作,只要会打字就能够立刻上手吧?
但是会和用的好是两回事。我们可以把 ChatGPT 想象成孙悟空的金箍棒,本身它是一个非常强大的法器,但是如果不会使用,它也不过是一根铁棍而已。提示词用的越好,ChatGPT 就越强大。
而且对于有编程基础的人来说,后续如果想要基于 LLM 或大语言模型快速构建、开发一些应用软件或者功能。不掌握 prompt 的基本原理和使用技巧,是无法达到很好的效果的。
在最后的相关资料里面,也添加了由微软和 OpenAI 所出的,针对于开发者的提示词的教程。我们的课程同样在后面也会带来基于 prompt 的应用开发实践。
提示词的原则与技巧
而写一个好的提示词,有以下的技巧可以使用。
写清楚需求:GPT 模型无法读懂您的想法,因此在提供需求时尽可能具体是很重要的。这包括在您的查询中包含详细信息,要求模型采用角色,以及使用定界符清楚地指示输入的不同部分。
提供参考文本:如果可以,请提供与您希望模型生成的内容相似的参考文本。这将有助于模型了解您要查找的内容并生成更准确的结果。
将复杂的任务拆分为更简单的子任务:如果您试图让模型做一些复杂的事情,将任务分解为更小、更易于管理的子任务会很有帮助。这将使模型更容易理解您的要求并生成更准确的结果。
角色扮演:这个技巧的作用是告诉 ChatGPT 在对话中扮演一个特定的角色或人物。这对于创造更有吸引力和沉浸感的对话,或模拟真实世界的场景特别有用。
系统地测试变化: 对需求或参考文本进行更改时,重要的是系统地测试结果以了解它们如何影响模型的输出。这将帮助您确定对改进结果最有效的更改。
写清楚需求
编写有效的 ChatGPT 的难点之一是表达含糊不清。为了避免这个问题,有以下几个问题需要注意:
定义任何专业术语或技术术语。
避免使用模棱两可的语言。
使用清晰或简明的语言
错误的案例:"你是我的哈基米吗?"
哈基米属于网络用语,而且诞生在 2023 年,ChatGPT 是无法理解这个词的语意的。
好的案例:"请帮我提供在深圳市宝安区所有的咖啡馆"
简明扼要说清楚自己的需求,无需多言,ChatGPT 便很好理解了。
提供参考文本
对于文本比较短的引用,可以直接贴到提问里面即可:如果你有一段法律条款,并希望模型使用这段条款来解释某个概念,你可以这样提问:“根据以下的法律条款,什么是知识产权?”然后附上法律条款的内容。
网页链接的引用:也可以直接将网页链接里面的内容提供给 GPT 来作为引用文本。比如可以直接给它一个链接地址,让它总结文章内的内容。(注意这个功能需要使用 web 插件)
拆解复杂任务
作为一个厨师,在做饭的时候需要完成这些步骤:准备食材、清理食材、处理食材、开始烹饪、摆盘。
在这个过程中,其实厨师就是把一个复杂的任务,拆解成了多个简单的任务。其实在编程的过程中,也是同样的道理。也会把一个复杂需求,拆解为 N 个简单的子需求。
如果需要 ChatGPT 帮助我们完成一个复杂的任务,那么,我们需要预先帮它把任务拆分。这样做的优点是:
更好理解每一个操作步骤。
不被上下文限制影响。
方便调整。
例如我们提出了一个如下的复杂任务:
提示词:作为一个测试工程师,我即将进行述职答辩,我想编写一个述职报告,述职报告需要包含我今年的成绩、我明年的目标、以及我在今年的工作过程中碰到的问题
ChatGPT 虽然给到了相应的回复,但是还有问题:
工作成绩没有清晰的数据也没有说服力,看着比较干瘪。报告内容没有图表。
内容太过简单空洞。
格式不够优雅。
如果我们把提问的方式做进一步优化,把这个复杂问题一步步进行拆解,并给 ChatGPT 一定的修改反馈,则产生的内容会更加符合我们的需求,比如我们可以把问题分解为:
提示词:作为一个测试工程师,我即将进行述职答辩,我想编写一个述职报告。述职报告需要包含我今年的成绩,我今年带领测试团队将 bug 的逃逸率降低了 10%的比例。并且我希望有一个通过 echarts 绘制的折线图。请将我的述职报告做进一步优化。
当然我们从这张图片中可以看出折线图无法展示,我们可以进一步给 GPT 提示信息,让它直接给到报表的源码。
提示词:echarts 折线图没有展示出来
然后 GPT 就会解释原因,并且给到解决方案。由此可见,将问题拆解,我们可以随时调整 GPT 的返回信息,让其更加贴近我们的需求。
借助外部工具
作为一个大语言生成模型,GPT4 并不擅长各种数学计算。比如下面的问题(来自官方 GPT 最佳指南中的示例问题):
提示词:查找以下多项式的所有实值根:3x^5 - 5x^4 - 3x^3 - 7x - 10
如果直接提问的话,通常没法直接给出答案,如下图所示,虽然借助 Python,给出了运算过程,但是其实 ChatGPT 无法像人类数学家一样,给出直接的推导过程:
所以可以将提示词改为:
提示词:查找以下多项式的所有实值根:3x^5 - 5x^4 - 3x^3 - 7x - 10 ,使用 Python 实现。
在后续碰到 ChatGPT 无法直接解决的问题时,不妨继续尝试这种曲线救国的方式。
角色扮演
角色扮演的过程就更为简单了,我们在编写提示词的时候,只需要给它加上一些角色的设定。
比如这个例子:
提示词:请用鲁迅的口吻,写一篇文章,叫做我的妈妈,要求字数在 800 字以内。
除了扮演其他作家之外,ChatGPT 甚至可以扮演领导,面试官,浏览器的 console 插件等各种各样我们可以想象到的角色:
提示词:我希望你作为一个 javascript 控制台。我将输入命令,你回复 javascript 控制台应显示的内容。我希望您只在一个唯一的代码块内回复终端输出,而不是其他任何内容。不要写解释。我的第一个命令是 console.log("Hello World");
系统的测试变化
正如人在回复信息的时候,也无法保证所有的回复都是正确的,ChatGPT 也无法保证每次给到的信息都是“靠谱的”或者是满足需求的。
所以 ChatGPT 的每一次回复,在确认没有问题之后,再使用。如果有问题的话,可以进一步进行提问,ChatGPT 会根据提示词不停的纠正回复。以达到一个满意的效果。
比如这个示例:
提示词:请问 App 的产品在测试的过程中需要注意什么
提示词:请针对兼容性测试再做一些补充。
总结
在学习 AIGC 的过程中,需要打破的往常的认知,不能再将 AI 作为简单的程序看待,反而要把它当作一个“人”来看待。
就像和人沟通一样,需要注意措辞、语气、沟通方式,才能够真正做到学会与 AI 对话,发挥它强大的作用。
后续学习的过程中,还会针对于 prompt 结合一些 api 的开发进行。
评论