一、为什么提示词是学习AI技术的基础?
大模型的训练(通用大模型和垂直大模型)要用到提示词
未来 AI 应用软件的封装需要用到提示词,比如虚拟陪伴对象、智能客服
提示词能工作提效(别人会了我们不会)
二、高质量提示词一大原则
使用明确且具体的指令
少说无关紧要的话,说重点
三、高质量提示词的三大要素
任务 what
角色 who
细节 how
四、提示词常见误区
1.问题过于模糊和宽泛
示例:“告诉我关于计算机的信息”
这种提问没有具体的焦点,大语言模型不知道从具体的哪个方向开始回答。我们在提问的时候应该明确问题的范围和上下文,比如:“请简述计算机的发展历史”。
2.问题过于主观或偏见
示例:“所有的快餐都是不健康的吗”
当问题中包含主观意见或偏见时,模型可能受到这些偏见的影响,它会尝试给出一个既考虑提问者观点并且又基于事实的答案,对于大模型来说很难控制的好这种平衡,所以有时候这种问题提问给它,它就会胡扯八道。
模型会迎合我们的偏见
3.期待模型能提供主观意见或道德判断
示例:“在考试中作弊是对的吗”
这种问题涉及道德和伦理判断。虽然大多数教育体系都明确反对作弊,但模型不会根据自己的“感觉”或“信仰”来做出回答,它只会基于其数据和训练来回应。我们可以更具体的询问模型:“作弊在教育系统中可能会带来哪些后果”。
4不考虑模型的知识截止日期
示例:“请你为我介绍华为mate60这款手机的详细配置”
这种问题已经超出模型的训练数据截止日期,大模型是无法给出正确的答案的。
根据 OpenAI 官方公布的模型训练数据,gpt-3.5-turbo 数据截至2021年9月,gpt-4数据截至2021年9月。
五、提示词万能公式
1、指定任务
公式:请你完成「任务」
任务:请你给我制定一个长期的跑步计划,并且给我讲一下跑步的技巧
2、描述任务细节
公式:请你完成「任务」,按照「细节」中的要求输出提示词拆解
任务:为我制定一个7天英语学习计划细节:计划要精确到每半天,以表格的格式输出
3、指定角色
在提示词工程中,要想让 ChatGPT 更好的完成我们指定的任务,需要给它指定特定的角色在给ChatGPT指定角色的时候,我们先在现实社会中找到对应能够完成此任务的最适合的角色,然后让 ChatGPT 扮演此角色来完成任务即可。比如你想学习唱歌,你就指定它是一位歌唱家,你想学习跳舞就指定它为舞蹈家。
公式:请你扮演「角色」,完成「任务」
角色:请你扮演一位Java高级工程师,为我写一个排序算法
4、提供示例
在提示词工程中,示例是为模型提供的关于如何完成特定任务的参考或指导。示例可以清晰的表达出来我们期望输出的格式或内容,从而消除任何我们和ChatGPT 之间可能存在的歧义。
请你扮演一位产品经理,向我解释产品经理这份职业,要求使用markdown的格式按照以下示例输出:
产品经理职业概念
产品经理职责
产品经理工作内容
产品经理职位重要性
5、提供选择
在提示词工程中,提供一系列预定义的选项或范围,让模型在这些选择之间进行决策。通过提供这些选择我们能够有效地控制模型的输出,确保其输出内容符合我们的预期要求。
公式:指定「任务」+提供「预定义选项」+「明确输出要求和细节」
提示词拆解:
任务:我规划一个 5 天的旅游行程
预定义选项:历史文化博物馆、户外公园、当地特色民风民俗
细节:比较悠闲的逛逛北京的景点,不能太累
我想要在周末去北京旅游5天,我比较喜欢以下几种类型的景点:历史文化博物馆、户外公园、当地特色民风民俗。请你帮我从这几种类型的景点中选择一个或者多个类型,给我规划一个 5 天的旅游行程,我想比较悠闲的逛逛北京的最点,不能太累
6、指定输出风
公式:
1、以「名人」的风格完成「任务」
2、以「某时期」的风格来完成「任务」
提示词拆解:
任务:输出一篇200子的短文
风格:林黛玉风格
请你以林黛玉风格,针对“上班“来输出一篇200字的短文
7、和ChatGPT 对话
公式:请你完成「任务」,任务中的关键信息点向我提问提示词拆解:
任务:我制定一个北京3天的旅游计划
引发对话:计划的关键信息点向我提问
请你帮我制定一个北京3天的旅游计划,计划的关键信息点向我提问
GPT使用地址
AI提示词专栏课程合集
![图片[1]-提示词小白入门 - 尔鹿网络-尔鹿网络](https://liyoudong-1305671160.cos.ap-beijing.myqcloud.com/2023/10/20231026145513669.png)
暂无评论内容