我悟了如何与AI说话!
你不必是数据科学家或机器学习工程师——人人都可以编写提示词。
(You don't need to be a data scientist or a machine learning engineer – everyone can write a prompt.)
最近,Google 官方发布了一份长达 69 页的【Prompt Engineering 白皮书】,可以说是目前最系统、最权威的“AI 沟通指南”了。我们也是第一时间翻译好了这本书,准备【免费】送给大家!
怎么拿?很简单,看完这篇文章,参与文末的小活动就行!
现在咱们聊聊,为啥这份白皮书突然就刷屏了?为啥说它是“必学秘籍”?
很简单,因为现在跟 AI 打交道,真的太难了!
你苦口婆心解释半天,它抓着一个无关紧要的词就开始自由发挥……
你想要个 A,它自信满满地给你个 B,还附赠一套又臭又长、看似完美的错误逻辑……
同一个问题,昨天它懂你,今天它就装傻,效果全看“缘分”……
即使是 OpenAI o1、DeepSeek R1 这些主打推理能力的新时代模型出来了,大家以为可以“傻瓜式”对话了,结果该懵圈的时候还是懵圈,该跑偏的时候照样跑偏——现实狠狠地打了我们一巴掌:AI 再强,你不懂“说话的艺术”,它也只能是个“最熟悉的陌生人”!
而“提示工程 (Prompt Engineering)”这门学问,就是教我们如何掌握这门艺术,如何精确、高效地引导 AI,让它从“猜你心思”变成“懂你心思”。
Google 这份白皮书,不是某个博主的心得体会,不是零散的技巧合集,而是 Google 官方基于对大语言模型(LLM)的深刻理解,系统性梳理出来的方法论、技巧库和最佳实践。
接下来,咱们就一起“开卷”这本秘籍,把里面的精华嚼碎了、掰开了,让你彻底搞懂 Prompt 的门道。
别忘了,看到最后有惊喜,读至文末,领取 69 页完整白皮书(英文原文 PDF + 中文翻译版 PDF)!
第一层心法:搞懂 AI 的“脑回路”——它其实只会猜词?
大语言模型(LLM)是一个预测引擎。当你输入文字时,模型会根据它训练过的数据预测下一个词应该是什么。通过精心设计的提示,你可以引导模型生成更符合你期望的回答。
白皮书开篇就给我们提了个醒:别把大语言模型(LLM)想得太玄乎,它骨子里就是个能力超强的预测机器。你给它一段话(你的提示词),它就在自己“消化”过的海量信息里疯狂搜索,预测接下来最可能蹦出哪个词(准确说是 Token),然后吐出来;接着,把这个新词加到你的话后面,再预测下一个... 就这么循环往复,直到它觉得说得差不多了或者达到你设定的长度。
想明白这点,是不是瞬间感觉思路清晰了?为啥 Prompt 那么关键?因为你的提示词,就是在给这个猜词游戏设定开局和规则! 你开头的引导越清楚、给的信息越多、指令越明确,它猜中你心思的概率就越大。这就是为啥有时候你换个说法,或者多加句背景,AI 的回答就能从反应迟钝变得智能多了!记住,你不是在跟它谈心,你是在引导它的预测方向!
第二层心法:玩转温度、Top-K、Top-P 这些关键参数
提示的许多方面都会影响其效果:使用的模型、模型的训练数据、模型配置、您的用词、风格和语气、结构以及上下文都很重要。因此,提示工程是一个迭代的过程。不恰当的提示可能会导致模棱两可、不准确的响应,并且会妨碍模型提供有意义的输出。
大部分人都是直接在各种 LLM 的官网使用聊天机器人,很少会有非开发者主动去研究怎么玩转 API。那么,开发者使用 AI 和非开发者使用 AI 的区别在哪呢?
比方说我现在打开 DeepSeek 的页面,一共就五个可交互的元素:写提示词用的聊天框(ChatBox)、切换成 R1 模型的「深度思考」按键、联网搜索按键、上传附件还有一个发送按键。
这里面影响结果最大的因素,自然是调整提示词。但除了提示本身,我们其实还可以调整各种配置选项来控制 AI 的输出,这些设置会影响 AI 生成回答的方式。
典型的就是谷歌自家的 Google AI Studio,除了常见的聊天框以外,我们还能在右边去调节各式各样的参数:
温度 (Temperature)
这玩意儿直接控制 AI 回答的随机性(或者说创造力)。你可以把它想象成调节 AI “胆量”大小的开关,正所谓“人有多大胆,地有多大产”,温度调的越大,模型创造力也就越强。
调低温度(比如 0.1 到 0.3),AI 就变得比较保守,倾向于选择概率最高、最常见、最符合事实的词汇,输出结果特稳定、一致,适合做总结、提取信息这类严谨的任务。缺点嘛,可能有点缺乏惊喜。
低温度典型的任务,就是让 AI 写代码: