大模型 Prompt 技巧全解析
很多人提 Prompt,第一反应还是“有没有更万能的模板”。这篇文章真正值得保留的,不是又列了一串术语,而是把 Prompt 的作用说得很清楚:它不是修饰文案,而是在给模型定义任务边界、信息范围和交付形式。
模型能力大多在预训练阶段已经形成,Prompt 更像调度层。你说清楚角色、任务、上下文和输出,模型就更容易在对的问题上发力;你说不清楚,它就只能凭概率分布替你补空白。
如果把 Prompt 压成最小单元,基本离不开四个部分:指令、上下文、输入数据、输出要求。
指令负责告诉模型要做什么。上下文负责限定信息范围和任务背景。输入数据是本次真正要处理的材料。输出要求则是在提前钉格式,避免结果难以复用。
这套骨架看起来简单,但很多失控恰好都出在这里。任务没写清楚,模型会自己猜;约束没写清楚,模型会默认自由发挥;输出没写清楚,后续解析和协作都会变难。
原文列了几种常见框架,我觉得可以按用途来理解,而不是当成要背的名词表。
RTF 适合快速起步。角色、任务、格式三件事交代清楚,很多日常场景就已经够用。
RISEN 更适合带约束的任务,因为它把步骤、目标和范围收窄单独提了出来。要写博客、写方案、写商业材料时,这类结构会更稳。
RODES 适合对细节和示例要求更高的场景,本质上是在提醒你别只给目标,不给样例和校验点。
原文还提到链式思考、密度链这类方法。它们的共同点不是“更高级”,而是适合那些需要分步推理、迭代压缩或逐轮改进的任务。真正重要的不是记住名字,而是知道什么时候该用:任务越复杂,越不要指望一句话直接得到高质量结果。
第一条原则是把指令写明确。
这包括用分隔符把不同部分隔开,减少提示词冲突;要求结构化输出,比如 JSON、表格或固定段落;必要时先让模型检查条件是否成立;在复杂任务里给 few-shot 示例,让模型别从零猜格式和判断标准。
第二条原则是给模型足够的思考空间。
很多任务不是模型不会,而是你让它在一句话里同时完成理解、推理、决策和表达。把步骤拆开、明确先后顺序,或者要求模型先分析再下结论,通常都会比“直接给答案”更稳。
原文举了思考链的例子,这类做法的价值不在那句固定话术,而在于你显式告诉模型:先推理,再输出。
零样本、少样本、链式思考、RAG、Prompt Chaining、ReAct,这些技术并不是替代关系,更像不同问题的工具箱。
任务简单、模式稳定,可以先用零样本。
格式敏感、容易跑偏,用少样本更稳。
需要推理过程,链式思考更合适。
知识新、事实密集、对准确性要求高,就该引入 RAG。
步骤长、子任务明显的流程,可以拆成 Prompt Chaining。
既要推理又要调用动作时,ReAct 才真正有意义。
技术选型真正应该回答的问题只有一个:当前失败主要是理解错、知识不够、推理不稳,还是流程太长。
原文对模型局限性的提醒很实在。模型不是完整记住世界知识,也不总能判断自己不知道什么,所以遇到陌生或晦涩主题时,确实可能生成看起来很像真的内容。
应对办法不是多写几句“请确保准确”,而是把证据链拉进来。最常见的方式有两种:一是让模型基于给定文本或引用作答,二是用 RAG 先补上下文,再让模型生成。前者降低自由发挥空间,后者降低知识缺口。
如果把这篇文章的内容落成一句更工程化的话,那就是:Prompt 设计不是写一段漂亮说明,而是在控制模型自由度。该放开的地方给空间,该锁死的地方给边界,该补知识的地方别指望模型自己想起来。