8种LLM提示技巧,小白程序员必备,轻松提升大模型输出质量(收藏版)
本文介绍了8种提升大语言模型LLM输出的提示技巧包括零样本提示、少样本提示、思维链提示、提示层级、角色特定提示、负向提示、JSON提示和专注推理查询。这些技巧针对不同的问题如格式不一致、推理浅薄、多样性不足等帮助用户优化LLM的输出质量。此外还讨论了AI工程师在生产环境中应掌握的20条经验法则涉及检索增强生成、提示缓存、监督微调等技术旨在帮助读者更好地理解和应用大模型技术。与 Lightning AI 合作推荐在 Lightning AI 上运行 DeepSeek V4 Pro 模型[1]大语言模型8 种提示技巧让 LLM 生成更优质的输出[4]Zero-shot Prompting零样本提示—— 即不带任何额外结构直接发送查询 —— 是大多数人使用 LLM 的默认方式。但这恰恰也是输出质量投诉最多的地方格式不一致、推理浅薄、约束缺失、多样性不足。这些典型失败模式每一种都对应着一种专门的提示技巧来解决。Few-shot Prompting少样本提示与其描述你想要什么不如直接在提示中展示几个输入-输出示例。模型会自动学习这个模式并应用到你的新输入上。通常三到五个示例就足够了。当任务有特定格式时最为实用自然语言转 SQL、文本分类到自定义类别或者任何展示比描述更容易的转换任务。Chain-of-ThoughtCoTPrompting思维链提示CoT 要求模型在给出最终答案之前逐步推理。在 PaLM 540B 上仅在提示中加上 “Let’s think step by step” 就将 GSM8K 数学基准测试的准确率从 17.7% 提升到了 78.7%。其原理在于将复杂推理拆分为更小的、可验证的步骤而非强迫模型一次性给出答案。最适用于数学、逻辑、代码调试以及任何依赖一系列中间推论的任务。我们在这里做了详细介绍同时也涵盖了 Self-consistency自一致性技术和 Tree of Thought思维树技术 →[5]Prompt Hierarchy提示层级LLM API 提供了多个层级的指令System Prompt系统提示、Developer Prompt开发者提示和 User Prompt用户提示。系统提示设定行为约束开发者提示定义特定任务逻辑用户提示承载实际查询。当不同层级的指令发生冲突时模型会优先遵循更高层级。这种关注点分离允许你将不可变规则放入系统提示中确保用户输入无法覆盖你的核心约束。Role-specific Prompting角色特定提示为模型分配一个角色比如你是一位金融顾问 vs “你是一位安全研究员”会将模型的回答引向特定的专业领域。模型会基于其训练数据的不同子集进行条件生成产出不同的词汇、表达框架和决策标准。你还可以对同一个查询使用多个角色对比输出从而获得对同一问题的多元视角。Negative Prompting负向提示除了告诉 LLM 该做什么你还可以明确指定要避免什么“不要使用营销语言”、“避免使用项目符号”、“除非被问到否则不要提及定价”。模型在生成时会将这些视为硬约束。最适用于内容生成场景当你需要防止特定的失败模式如行话术语、虚构引用或不必要的免责声明时。JSON PromptingJSON 提示你在提示中定义一个 JSON SchemaJSON 模式并指示 LLM 以匹配该结构的格式返回输出。例如包含{task: summarize, input: ..., output_format: {sentiment: , summary: }}这样的内容模型会返回填好值的 JSON。不同于 API 级别的结构化输出OpenAI 的response_format、Anthropic 的 Tool-useJSON Prompting 适用于任何模型和任何接口因为约束本身就在提示中。在能力较强的模型上你无需任何 API 特定配置就能获得约 90% 以上的 Schema 合规率。我们在这里做了详细介绍 →[6]Attentive Reasoning QueriesARQ专注推理查询ARQ 用针对特定领域的定向问题组织在预定义 JSON Schema 中替代了自由形式的 CoT。它不是让模型逐步思考而是给模型一份结构化的检查清单模型必须先回答这些问题然后才能生成最终回答。在 Parlant 框架内 87 个场景的测试中ARQ 达到了 90.2% 的成功率而 CoT 为 86.1%直接提示为 81.5%。CoT 让模型可以自由地忽略指令。ARQ 则在推理发生的关键节点重新引入关键约束利用近因效应Recency Effect将规则保持在活跃上下文中。我们在这里做了详细介绍 →[7]Verbalized Sampling语言化采样后训练对齐RLHF、DPO会导致 LLM 的输出坍缩到一组狭窄的安全回答上。Verbalized Sampling 通过一个简单的提示修改来解决这个问题。与其要求一个回答不如让模型生成 5 个回答及其对应的概率。这迫使 LLM 将其内部分布用语言表达出来而非坍缩到众数。在其研究论文提到的实验中多样性相比直接提示提升了 1.6-2.1 倍同时人类评估得分提高了 25.7%。该技术与 Temperature温度参数正交因此可以叠加使用。我们在这里做了详细介绍 →[8]这些技巧并非互斥。Few-shot CoT 是常见组合。JSON Prompting Negative Prompting 可以在结构化输出的同时设定明确的约束。ARQ 是 CoT 的结构化版本专为多轮 Agent 对话设计。选择哪种技巧取决于你遇到的失败模式格式不一致JSON Prompting、推理浅薄CoT 或 ARQ、多样性不足Verbalized Sampling、不想要的内容Negative Prompting、或缺乏领域专业知识Role-specific Prompting。交给你了你在日常工作中最常用哪些技巧有没有尝试过组合使用生产级机器学习AI 工程师应该掌握的 20 条 AI 工程经验法则[9]每个生产级 AI 系统都是一个技术栈而非单一技术。资深工程师在设计这些系统时靠的是识别各种张力关系而非死记工具。下面每一对都将一个生产环境中的张力映射到解决它的技术覆盖完整技术栈上下文、训练、推理、服务和智能体。1) 新知识 生成 →RAG[10]↳ 将回答锚定在模型未曾训练过的数据上关键词搜索 语义搜索 → Hybrid Search混合搜索↳ 精确词匹配与语义理解两者兼得检索 噪声 → Reranker重排序器↳ 先广泛检索再缩小到真正相关的内容长前缀 多次调用 →Prompt Cache提示缓存[11]↳ 稳定前缀只付一次费跨调用复用标签 行为 →SFT监督微调[12]↳ 用输入-输出对教模型学会特定模式微调 单卡 GPU →LoRA[13]↳ 无需重新训练全部权重即可适配模型可验证输出 无标签 →GRPO[14]↳ 当输出可自动验证但偏好标签不存在时进行训练大模型 低成本推理 →Distillation蒸馏[15]↳ 训练一个更小的 Student学生模型来模仿 Teacher教师模型的行为大模型 OOM内存溢出 →Quantization量化[16]↳ 让模型适配可用的 GPU 显存长生成 延迟 →KV Cache键值缓存[17]↳ 复用已增长历史上的注意力计算而非重新计算显存 碎片化 →Paged Attention分页注意力[18]↳ 将 KV Cache 打包成页面减少 GPU 显存浪费Draft Model Target Model →Speculative Decoding推测解码[19]↳ 以小模型的单 token 延迟获得大模型的质量变化的请求 吞吐量 →Continuous Batching连续批处理[20]↳ 并发处理请求而不让 GPU 插槽空闲小模型 大模型 → Model Routing模型路由↳ 简单查询走便宜模型复杂查询走昂贵模型语义 缓存 → Semantic Cache语义缓存↳ 相似查询跳过 LLM直接从缓存返回答案长提示 快速 token →Disaggregated Serving解耦式服务[21]↳ 将 Prefill预填充和 Decode解码分离到不同的 GPU 池模型 外部 API → Tool Use工具使用↳ 让模型发起函数调用以执行操作上下文 溢出 →Sub-agents子智能体[22]↳ 委派长任务而不污染父级的推理上下文文本 JSON → Structured Output结构化输出↳ 保持生成灵活性同时确保输出可解析提示 回归 →Evals评估[23]↳ 迭代优化提示和模型同时不破坏已有效果这些是经验法则不是规则。正确答案取决于你的工作负载、延迟预算以及在生产环境中最先崩溃的是什么。张力词汇才是关键——一旦你能命名压力所在对应的技术就显而易见了。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包✅ 从零到一的 AI 学习路径图✅ 大模型调优实战手册附医疗/金融等大厂真实案例✅ 百度/阿里专家闭门录播课✅ 大模型当下最新行业报告✅ 真实大厂面试真题✅ 2026 最新岗位需求图谱所有资料 ⚡️ 朋友们如果有需要《AI大模型入门进阶学习资源包》下方扫码获取~① 全套AI大模型应用开发视频教程包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点② 大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通③ 大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。④ AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。⑤ 大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。⑥ 大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。以上资料如何领取为什么大家都在学大模型最近科技巨头英特尔宣布裁员2万人传统岗位不断缩减但AI相关技术岗疯狂扩招有3-5年经验大厂薪资就能给到50K*20薪不出1年“有AI项目经验”将成为投递简历的门槛。风口之下与其像“温水煮青蛙”一样坐等被行业淘汰不如先人一步掌握AI大模型原理应用技术项目实操经验“顺风”翻盘这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。以上全套大模型资料如何领取