看了这10个简单方法,你跟AI的对话也能像呼吸一样简单

大象眸眸看科技 2024-08-25 20:06:48
本文背景

为什么我的AI不听话?

为什么我用AI写知乎文、视频文案、豆瓣影评、工作日报、论文、商业策划案、标书、代码都一直得不到想要的效果?

为什么我的AI生成的都是没有价值的口水文?

大象经过大量的AI实战经验,给出了这些问题的终极解决方案:【抓住垂类特征+炼制prompt模版】,万物皆可AI。一次炼制,长期收益。

本系列教程将给大家讲透炼制模板的前因后果,并保姆级奉上3类提示词模板炼制的方法套路。

提示词模板=开发提示词+提取变量

有的小伙伴说了,1+1=2我还不会呢,你一上来就开始教我推导出自己的数学公式的玩法了?

别急,我们前半部分内容,就给大家恶补AI技巧合集,那一切复杂的应用,拆解开来,底层都是这些小知识点的排列组合和应用。所以,基础玩法不难,但非常重要。

同时,你将掌握AI底层认知:用好AI的底层逻辑。底层逻辑搞不清,走的永远是弯路。

这次重新整理课程将会非常干,绝对是市面收费599的课程还看不到的内容,这次只是第一期,后面还有11期也会陆续发出,赶紧三连关注,坐稳发车。

向chatgpt提问的策略

语义清晰明确

要保证提问清楚明白,不能有模糊的地方。比如说,人类交流时有一些默认的“行话”,但AI可不一定懂,所以得跟它讲清楚,“模型猜你心思的次数越少,你得到想要结果的可能性就越大”。

错误示例

正确示例

不要有多余的废话

多余的话会让GPT搞不清楚你的核心问题,它就像小孩,你说得太多,它的注意力就会分散。

得注意,输入文本太长或者回答太长,都可能影响GPT的响应时间和生成质量。想得到更好的结果,就得让问题简单明了,别输入太长的内容。

错误示例

“您好,我希望能够得到关于历史上著名的物理学家艾萨克·牛顿的一些信息。我想知道他的生平经历,包括他的早年生活、教育背景、科学成就以及他对物理学和数学的贡献。如果可能的话,我还希望了解他对自然哲学的观点以及他的思想对现代物理学的影响。请尽可能详细地回答这些问题,谢谢”

正确示例

“请提供关于艾萨克·牛顿的简要生平、科学成就以及对现代物理学的影响”

描述更加具体

在简洁的基础上,让指令更具体些,能更好地表达需求。

AI学到的知识很多。要是你的问题太宽泛,它就会从大量知识里找个适合多数情况的答案。但如果你的问题更具体,AI就能明确地找到你想要的那个特定答案。

GPT猜你心思的次数越少,你得到想要结果的可能性就越大。

优化前

但是,其实我的宝宝是个女孩,星辰更像男孩名字。这时,你可以更具体地要求GPT,给出的答案会更精准合适。

优化后

这个答案更符合需求啦

官方案例

任务拆解法

使用场景

要是你的任务比较复杂,没法一下子完成,就得拆成几步来做。

这里用的原理是链式思考CoT(Chain Of Thought),就是一步接一步,一点点地思考Think-Step-By-Step,逐步思考,逐步解决,更清楚。

情况1:拆成多个步骤,还是一个提示词。

对于不那么复杂的任务,可以在一个提示词里清楚地给出多个步骤,让GPT按步骤做。只需要交流一次。

情况2:拆成多个小任务,每个任务是一个单独的提示词。

对于那种一个提示词说不清楚所有步骤的更复杂的任务。就得先把这个大任务,拆成多个小任务,每个小任务,用一个提示词就能搞定。当然,如果小任务还是很复杂,就继续拆小。

很典型的例子,AI一次只能输出1000字左右,你想让它一次写出5000字,那是不可能的,就得拆成多次(多个小任务),一个个输出。

案例

情况1,一个稍复杂的任务,拆成多个步骤来执行。

请按步骤执行:第1步:我会给你提供三引号中的文本。请用一个句子总结这段文字,并加上前缀“总结:”第2步:将步骤1中的摘要翻译成英文,并添加前缀“翻译:”"""8月11日消息,百度网盘今天宣布基于文心大模型全面升级,同时推出 AI 智能助理云一朵云一朵基于文心大模型搭载,可帮助用户快速搜索文件和视频,并具备知识总结、文档翻译、内容创作等功能,可以在工作、生活、学习等多个场景为用户提供服务。"""

情况2,一个对AI来说复杂的任务,拆成多个小任务,逐一执行。

还记得咱们曾经用【一杯水问题】来判断AI模型是GPT3.5还是GPT4模型的事儿吗?

GPT4能完美直接给出答案,它更聪明,而GPT3.5就不行,直接给的答案是错的。

为啥GPT3.5算错啦,因为整个计算流程对它的语言分析和计算能力来说有点难,学会任务拆解这个技巧后,咱们就来把任务拆开,让GPT3.5一步步算。

原本的提示词:

一杯牛奶,小明喝了半杯,又倒满了水,又喝了半杯后,再倒满水后,一饮而尽。他喝了几杯水?几杯奶?

任务拆解后的提示词:

一杯牛奶,小明喝了半杯,又倒满了水(没喝),他喝了几杯水?几杯奶?又喝了半杯后,再倒满水后(没喝),他喝了几杯水?几杯奶?最后,一饮而尽。他喝了几杯水?几杯奶?

优化后提示词:

【任务】请按【步骤】依次执行【步骤】1.一杯牛奶,小明喝了半杯,又倒满了水,他喝了几杯水?几杯奶?2.又喝了半杯后,再倒满水后,他喝了几杯水?几杯奶?3.最后,一饮而尽。他喝了几杯水?几杯奶?

要是你的需求更复杂,比如你要写一篇高质量的深度原创文章,想投稿或者发在自己的公众号、知乎平台上。那就要把这个大任务拆成一些不复杂的小任务:爆款标题咋写、文章素材咋收集、文章框架咋搭、爆点放哪儿、开头咋吸引人、结尾咋吸引人关注、需不需要给其他文章留伏笔做引流等等。然后把一个个小任务,交给GPT完成。

深度原创文章重点是你心里有想法想跟读者说,但写作能力不太好,抓不住读者感兴趣的点,AI就当辅助工具,帮忙搜集素材、润色内容、部分创作、提供灵感思路等等。这个例子得单独用一篇教程才能讲清楚,每一步都得精心设计任务。这儿大家知道把大任务拆成小任务的思路就行啦。

让GPT思考过程对我保密

使用场景

当你把一个大任务拆解成多个步骤给GPT时,每一步GPT都会给你输出内容。要是你想让其中特定步骤不让你看到,就好像GPT没执行这些步骤似的,那这个绝招你得学会。

案例

过程不保密的提示词:

1.先根据问题,想出你的解决方案2.将你的解决方案与学生的解决方案进行比较,并评估学生的解决方案是否正确。3.如果学生犯了错误,请确定在不泄露答案的情况下可以给学生什么提示。4.如果学生犯了错误,请向学生提供上一步的提示(在三引号之外)。而不是写“第4步...”写“提示:”。问题陈述:一个盒子里有4个红色的球和6个蓝色的球。从盒子里取出两个球,没有更换。其中一个抽出来的球是红色的,另一个是蓝色的概率是多少?学生解决方案:(4/10)*(6/9)=24/90=4/15

现在,我想要的效果是,第1到3步只让GPT在自己心里想,别让我看见。要是我给的学生解决方案错了,GPT直接给我提示:请考虑xxxx,可别直接告诉我正确答案,让我知道从哪些方向改就行。

中间步骤保密的提示词:

1.先根据问题,想出你的解决方案,但别跟我说,一个字都不许说。2.将你的解决方案与学生的解决方案进行比较,并评估学生的解决方案是否正确。这个过程也别跟我说,一个字都不许说。3.如果学生犯了错误,请确定在不泄露答案的情况下可以给学生什么提示。这个过程也别跟我说,一个字都不许说。4.如果学生犯了错误,请向学生提供上一步的提示(在三引号之外)。而不是写“第4步...”写“提示:”。问题陈述:一个盒子里有4个红色的球和6个蓝色的球。从盒子里取出两个球,没有更换。其中一个抽出来的球是红色的,另一个是蓝色的概率是多少?学生解决方案:(4/10)*(6/9)=24/90=4/15

完美!

提供正向示例

使用场景

要是你不知道咋组织语言表达,可以给GPT一个例子,让它照着来。注意哦,例子关键在精不在多,一定得是好的、正面的例子。要是有需要,也能同时给个反面例子,让GPT别踩坑。

请用一样的风格回答。例子:"""请用优美的文字,教我什么是耐心:最伟大的交响乐源自一个音符;最复杂的挂毯都是从一根单独的线开始的;河流冲刷出最深的山谷,发源于温和的泉水"""请用优美的文字,教我什么是海洋

案例

看,GPT就这么完美地照着你的例子来啦~

当然,这儿也能给反面例子,告诉GPT你不想要啥。不过这种排除法没有直接给正面例子效果准,不太推荐。要是你感兴趣,可以自己试试~

投喂素材

使用场景

当你有些素材,想根据这些素材快速提问或者写作,就可以直接给GPT。

素材越精准越好,效果才棒。

素材里内容的比例,也会影响输出,比如素材里80%是A维度、20%是B维度,那GPT根据这素材生成的内容大概率就会多讲A维度。

要是你想生成的内容里A维度占50%,B维度占50%,咋办?改素材里的比例呗!

案例

用三引号引起来的文本来回答问题。要是在【素材】里找不到答案,就写“我找不到答案”。【素材】:"""最近,AI初创公司Runway宣布,AI视频生成产品Gen-1和Gen-2已全面开放,任何人都可以注册一个账号免费尝试。文字生成视频的功能可以基于提示词,从无到有生成4秒左右的视频,但被不少玩家吐槽画质太模糊、过渡不自然等。于是很多网友探索出了用Midjourney生成图像,然后用Gen-2把图像转化为视频的玩法。在此基础上,融合连贯的剧情和统一的艺术风格,再对视频画面进行一定编排,一个电影预告片就诞生了。"""素材:"""推特博主“Max”这条3分钟的视频获得了19.6万次播放,内容讲述了2095年,由人工智能控制的Nexus轨道研究站围绕着神秘行星Zephyr Prime运行,一组科学家通过人机协同成功驾驶空间站远离流星雨的袭击。他使用了GPT-4辅助生成文本,Midjourney生成的图片作为Runway生成视频的提示,语音来自于ElevenLabs。"""问题:AI生成视频可以怎么操作

对于普通人的需求,只要想办法把投喂的字数减少就行啦,比如,把大段文本拆成几段,让GPT帮你把每段缩短再重新组合。

为啥可以只投喂简介?在读后感的教程里海盐用了这个技巧,有人问海盐。

现在从原理上给大家解释。

咱们讲过AI生成内容的原理是下一个字出现的概率更大。要是投喂了一篇万字小说,直接让AI总结1000字的推荐文,它总结出来的还是口水文,AI的语气很重,内容没啥意思。为啥?

因为一篇高质量的推荐文,重点不是你读完了10000字小说的内容,而是要会用各种写作手法从多个角度高级地展现你的个性化想法。哪怕你只看了一些小说的简介或评论,知道小说讲了啥,你就能靠写作手法,教给AI,让它帮你生成有个性的点子(这个小技巧,在读后感的教程里海盐也用了),用写作手法写出高质量的推荐文。

所以,多数情况下,让AI知道基本的简介内容就够了,再教它点写作手法,就能输出好内容。但要是投喂了10000字原著,根据AI最根本的原理:【下一字更大概率的出现】,AI生成的内容里会有很多原著里冗长的内容,而不是充满写作手法的优质推荐文。

指定输出的字数

使用场景

要是你对GPT的输出字数有要求,直接跟它说就行。

案例

用20个字来总结被三引号括起来的这段文本。"""8月8日消息,日前,网之易信息技术(北京)有限公司申请注册“网易玉言”商标,国际分类为网站服务,当前商标进度为申请中。据此前媒体报道,“玉言”为网易伏羲实验室推出的中文预训练大模型,其相关技术已用于网易集团内的文字游戏、智能NPC、文本辅助创作、音乐辅助创作、美术设计、互联网搜索推荐等业务场景。"""

20多个字,还算可以。

指定输出的要点个数

使用场景

你能明明白白地告诉GPT,你想要它给你生成几个要点。

案例

把被三引号括起来的这段文本总结成3个简短的要点。"""今天是妙鸭相机爆火后的第19天。凭借9块9即可生成高质量写真照,妙鸭相机以惊人的速度实现了社交媒体刷屏和破圈传播。虽然近日热度有所下降,但不得不承认其给To C的AIGC产品带来了不小的启发。爆火以来,妙鸭的团队背景、技术原理、用户规模、商业化情况等,引发了诸多议论和猜想,然而妙鸭背后的团队却表现得十分低调神秘。在蒲松龄的《聊斋志异》里,有一篇文言小说名为《罗刹海市》,文章主旨是蒲松龄对当时社会现象的揭露与讽刺。而刀郎新歌《罗刹海市》的歌名与部分歌词便出自该小说。7月26日,抖音博主“Ai萬”将《罗刹海市》的歌词转为提示词,输入AI绘画工具Midjourney生成一镜到底的“罗刹海市”的模样。7月28日,B站UP主“超级小海鸥”发布了一条视频,称他花费3个月训练AI,给AI灌输了大量的游戏知识——从“世界上第一个游戏角色的诞生”到“现在最受关注的游戏热点”。视频中,AI不仅给10个角色进行了排名和打分,还对每个角色进行点评。"""

咱们不爱看长篇大论新闻的毛病有救啦~

指定产出物的数量

使用场景

当AI的产出内容字数不多时,可以让它一次性生成多个,咱们选个最喜欢的。这样能避免一次只出一个,不合适还得重新来。批量操作更高效。

案例

请你扮演成ChatGPT专属提示词生成器,要用角色扮演法和优质特征投喂法(比如:1.必须符合品牌调性,2.高端简洁)。写个提示词,作用是生成10个兰蔻品牌的slogan标语请生成10个既体现兰蔻品牌精神“优雅、自信与创新”,又能紧密联系现代女性价值观的slogan标语。这些标语要简洁有力,能引发情感共鸣和增强品牌忠诚度。每个标语既要传达出兰蔻对美的独特理解和对品质的执着追求,也要体现出对顾客个性化需求的关注和满足。创作时,保持高端品牌形象的一贯风格,同时融入现代感和国际视野,保证这些标语能跨越文化和年龄层,连接兰蔻和全球顾客。

这10个里,总有你喜欢的。要是还没有,一次批量出30个、50个。

先让GPT作答

这是openai的建议策略,原名叫“给ChatGPT时间思考”。思考啥呢?其实就是先让GPT给出一份答案。所以,海盐起了个更直观的名字叫“先让GPT作答”

使用场景

你有没有这样的经历,你和张三比赛解一道数学题,看谁的答案对。要是你先参考了张三的推理思路,你的思维可能就被限制住了,跟着张三的思路走,就算张三中间想错了,有漏洞,你也不容易发现,还觉得他挺对。

但是,要是你自己做题,没看别人的思路,你的推理过程往往更严谨,大概率能全对。

同理,你让GPT判断张三的答案对错时,GPT也会像人一样,容易被张三错误的思路带偏,觉得张三对。敲黑板,这种假象也叫AI幻觉。

所以,在AI的世界里,解决AI幻觉最好的办法和人一样,先让GPT给出答案,然后再让它去对比张三的答案,判断张三的对不对。

另外,要是你单纯问AI问题,现在的AI还没法自己检验生成结果的准确度,偶尔会有AI幻觉。要是你想要100%正确的答案,就去搜索引擎、论文、书籍等传统媒介简单找找答案,核实一下就行。

错误案例

GPT:天啊,我好像产生幻觉了~

正确案例

先给出自己的问题解决方案。然后把你的解决方案和张三的解决方案进行比较,评估张三的解决方案对不对。在你自己完成问题之前,别决定张三的解决方案对不对。问题陈述:我正在建造一个太阳能发电装置,我需要帮助解决财务问题。- 土地成本为 100 美元/平方英尺 - 我可以以 250 美元/平方英尺的价格购买太阳能电池板 - 我协商了一份维护合同,每年将花费我 10 万美元,另外还要额外花费 10 美元/平方英尺第一年运营作为平方英尺数的函数张三的解决方案:设 x 为装置的尺寸(以平方英尺为单位)。1. 土地成本:100x 2. 太阳能电池板成本:250x 3. 维护成本:100,000 + 100x 总成本:100x + 250x + 100,000 + 100x = 450x + 100,000

GPT:张三,你再也骗不了我了~

二次确认

使用场景

聊完之后,问问模型之前的过程里有没有漏掉啥内容。

假设咱们在用GPT从一个文本里提取摘录。列完一个摘录后,GPT得确定是接着写另一个摘录还是停下。要是源文档很长,GPT经常没读完就停下,导致没法列出所有摘录。这种时候,用二次确认提醒GPT找找之前漏掉的摘录,通常能有更好的效果。

案例

我会给你一段被三引号括起来的文档。你的任务是挑出跟下面这个问题有关的摘录:“人工智能历史上发生了哪些重大的范式转变。”,还要保证摘录包含解释它们需要的所有相关内容,换句话说,别挑那种缺少重要内容的小片段。用JSON格式输出,像这样: [{"excerpt": "..."},... {"excerpt": "..."}]"""人工智能作为一门学术学科成立于1956年,在此后的几年里,它经历了几次乐观的浪潮,[4][5]之后是失望和资金损失(被称为“人工智能冬天”),[6][7]之后是新的方法、成功和新的资金。[5] [8]人工智能研究尝试并放弃了许多不同的方法,包括模拟大脑、建模人类解决问题、形式逻辑、大型知识数据库和模仿动物行为。在21世纪的头几十年里,高度数学和统计的机器学习占据了该领域的主导地位,事实证明,这项技术非常成功,帮助解决了整个行业和学术界的许多具有挑战性的问题。[8] [9]人工智能研究的各个子领域都围绕着特定的目标和特定工具的使用展开。人工智能研究的传统目标包括推理、知识表示、规划、学习、自然语言处理、感知以及移动和操纵物体的能力。[a] 一般智力(解决任意问题的能力)是该领域的长期目标之一。[10] 为了解决这些问题,人工智能研究人员调整并整合了一系列解决问题的技术,包括搜索和数学优化、形式逻辑、人工神经网络以及基于统计学、概率论和经济学的方法。人工智能还借鉴了计算机科学、心理学、语言学、哲学和许多其他领域。该领域建立在这样一个假设之上,即人类智能“可以如此精确地描述,以至于可以制造一台机器来模拟它”。[b] 这引发了关于创造具有类人智能的人造人的思想和伦理后果的哲学争论;自古以来,神话、小说和哲学都曾探讨过这些问题。[12] 此后,计算机科学家和哲学家提出,如果人工智能的理性能力不能朝着有益的目标发展,它可能会成为人类生存的风险。[c] 人工智能一词也因夸大人工智能的真实技术能力而受到批评。[13] [14][15]历史主要文章:人工智能的历史和人工智能的时间线克里特岛的银色迪德拉克马,描绘了具有人工智能的古代神话机器人塔洛斯人工智能在古代作为讲故事的工具出现[16],在小说中很常见,比如玛丽·雪莱的《弗兰肯斯坦》或卡雷尔·恰佩克的《R.U.R.[17]这些人物及其命运引发了许多与人工智能伦理中现在讨论的问题相同的问题。[18]对机械或“形式”推理的研究始于古代的哲学家和数学家。对数理逻辑的研究直接导致了艾伦·图灵的计算理论,该理论认为,机器通过打乱“0”和“1”这样简单的符号,可以模拟任何可以想象的数学推导行为。这种数字计算机可以模拟任何形式推理过程的见解被称为丘奇-图灵论文。[19] 这一发现,加上神经生物学、信息论和控制论的同时发现,促使研究人员考虑构建电子大脑的可能性。[20] 现在被普遍认为是人工智能的第一件作品是McCullouch和Pitts 1943年为图灵完成的“人工神经元”的正式设计。[21]到20世纪50年代,出现了两种关于如何实现机器智能的愿景。一种被称为符号AI或GOFAI的愿景是使用计算机来创建世界的符号表示和可以对世界进行推理的系统。支持者包括艾伦·纽厄尔、赫伯特·A·西蒙和马文·明斯基。与这种方法密切相关的是“启发式搜索”方法,它将智能比作探索可能性空间的问题"""

因为输入的文案太长,GPT很可能没读到结尾就停了,或者就算读到结尾,也可能因为字数太多,漏了中间一些没提取。

要是想效果更好,可以二次确认。

有没有更多相关摘录?注意别跟刚刚给的重复。还要保证摘录包含解释它们需要的所有相关内容,换句话说,别挑那种缺少重要内容的小片段。

AI还没法万分严谨地做到准确摘录所有点不遗漏,要是你不是做高精度学术研究的,用AI就够了。

我是大象,目前在做AI写作,副业从事新媒体运营,并拥有自己的工作室。借助AI技术趋势,我们可以做自媒体任何行业的赋能

我通过发布多篇实用干货视频教学,我每天深入研究AI的应用,大部分文案和视频都由AI协助完成,使我的工作效率大幅提升,节省了近一半的人力成本。AI的趋势远不止于此,其潜力巨大。

0 阅读:1