jixiaxue 知识库
research

提示工程教程

4 个章节 · 3 条产出 · 51 条证据

提示工程教程

状态:🟢 已完成 日期:2026-03-22 驱动问题:系统学习 Prompt Engineering 的最佳资源路径是什么?构建可复用的 PE 知识体系。 方法论:深度知识体系构建(Grounded Knowledge Architecture)+ 信息源分级筛选


结论摘要

  1. 87 条核心原则:从 42 个一手数据源 + Claude Code 系统提示词深度分析,333 条原始编码中提炼,5 层分级(通用→模型专属→实验性),每条有置信度评分
  2. 内部一致性验证通过:5 组重点两两对比全部一致,6 处跨厂商矛盾全部裁决
  3. 生产验证:9 个 Anthropic 生产级提示词的平均框架符合度 80.6%,验证了框架有效性
  4. Agent PE 专项:从 Claude Code(v2.0.0 + v2.1.81)提取 30 个 Agent 设计模式,整合为 15 条正式原则(P073-P087),覆盖主动性校准、工具描述、安全边界、子代理架构等 10 个维度
  5. 方法论已沉淀:「深度知识体系构建」方法论(#28)已加入调研方法论手册,可跨项目复用

最终知识架构findings.md(87 条原则,可直接作为 PE 参考手册) Agent 提示词工程3-Agent提示词工程.md(30 个模式整合为 10 章节,含可复用模板) 优质提示词模板产出/优质提示词模板集.md(9 个生产级模板 + 框架符合度评分)

数据来源分层(T0/T1/T2/T3)

详见 → 2-精选数据源.md

层级来源学习权重
T0Anthropic(教程+文档+实战+系统提示词+前沿方向)60%
T1OpenAI + Google(官方指南,三角对比用)25%
T2LangGPT + Brex(方法论框架+企业实战)10%
T3DAIR.AI(入门百科+论文交叉验证)5%

方法论如何指导本次调研

深度知识体系构建(7 个阶段):

  1. Phase 1 开放编码 → 303 条原始编码
  2. Phase 2 轴心编码 → 关系网络(依赖/互补/条件分支)
  3. Phase 3 跨源三角验证 → 置信度评分
  4. Phase 4 内部一致性检验 → 0 个未解决矛盾
  5. Phase 5 选择性编码 → 72 条核心原则,5 层分级
  6. Phase 7 生产验证 → 9 个生产级模板,80.6% 平均符合度
  7. Agent PE 专项 → 30 个 Agent 设计模式 → 15 条正式原则(P073-P087)

调研框架

提示工程教程/
├── _brief.md                        ← 本文件(地图)
├── 0-学习资源总目录.md               ← 80+ 资源总览(YouTube/GitHub/社区/书籍)
├── 1-官方指南.md                     ← 6 大 AI 厂商官方文档详解
├── 2-精选数据源.md                   ← T0/T1/T2/T3 分层数据源
├── 3-Agent提示词工程.md              ← ⭐ Agent PE 完整指南(30 模式→10 章节,含可复用模板)
├── findings.md                      ← ⭐ 最终知识架构(87 条原则,含 Tier 3G Agent 架构设计)

├── evidence/                        ← 42+ 原始数据文件
│   ├── T0-anthropic/                ← 27 文件(教程+文档+系统提示词)
│   ├── T1-openai/                   ← 2 文件
│   ├── T1-google/                   ← 2 文件
│   ├── T2-frameworks/               ← 4 文件(LangGPT+Brex)
│   ├── T3-basics/                   ← 7 文件(DAIR.AI 核心技巧)
│   ├── phase1-coding-T0.md          ← 147 条编码
│   ├── phase1-coding-T1.md          ← 68 条编码
│   ├── phase1-coding-T2T3.md        ← 88 条编码
│   ├── phase1-coding-agent-pe.md    ← 30 条 Agent PE 编码(AP-001 到 AP-030)
│   └── phase2-3-merged-analysis.md  ← 合并+三角验证+矛盾裁决

└── 产出/
    ├── 优质提示词模板集.md            ← 9 个生产级模板 + 符合度评分
    ├── claude-code-框架双向验证.md    ← Claude Code 系统提示词 vs 框架双向验证
    └── infographic/                  ← 信息图
        └── prompt-engineering-resources/
            ├── infographic.png
            └── prompts/infographic.md

关联调研

调研章节

0 Prompt Engineering 最佳学习资源汇总

Prompt Engineering 最佳学习资源汇总

📍 位置:提示工程教程 / 学习资源总目录 📌 核心发现:Anthropic 交互式教程 + DeepLearning.AI 吴恩达课 + Prompt Engineering Guide 是最佳三件套 📥 输入:GitHub、YouTube、官方文档手工整理 📤 流向:→ 个人学习路径规划参考

调研日期:2026-03-19(持续更新)


总目录

  • Part A: YouTube 频道与视频教程
  • Part B: GitHub 资源汇总
  • Part C: 社区、课程、博客、书籍、中文资源
  • Part D: AI 公司官方一手指南(详见 official-guides.md

全局推荐 TOP 10(跨所有来源)

#资源类型免费推荐理由
1Anthropic 交互式教程官方课程免费9 章 Jupyter 实操,最系统的 hands-on 教程
2DeepLearning.AI 吴恩达课视频课程免费业界公认最佳入门,1-2 小时
3Prompt Engineering Guide指南网站免费66k stars,13 语言,最全面参考
4OpenAI 官方指南官方文档免费经典六大策略,清晰权威
5Anthropic 官方文档官方文档免费Claude 4 专属最佳实践
6LangGPT 结构化提示词框架免费中文最具影响力的 prompt 设计方法论
7OpenAI Cookbook代码库免费GPT-4.1/5/5.2 各有专属指南
8DSPy框架免费Stanford 出品,自动化 prompt 优化的未来
9Prompt Engineering for LLMs (O’Reilly)书籍~$40最深入的系统性书籍
10Gemini 3 Prompting Guide官方文档免费含温度=1.0 等独特建议


Part A: YouTube 频道与视频教程


一、顶级 YouTube 频道(专注 Prompt Engineering / AI Prompting)

1. The AI Advantage(强烈推荐)

  • 主持人:Igor Pogany
  • 频道链接https://www.youtube.com/@TheAIAdvantage
  • 订阅数:260,000+,累计 1600 万+ 播放
  • 语言:英语
  • 内容覆盖
    • 系统性的 Prompt Engineering 入门系列
    • ChatGPT、API、自动化工作流教程
    • Midjourney 提示词教程(全网最多播放的 Midjourney 教程)
    • 实用的 AI 工具集成与生产力提升
  • 质量评估:实战导向,无废话,适合想快速上手的人。频道已被 Tony Robbins 和 Dean Graziosi 收购,商业化程度较高但内容质量依然扎实
  • 付费课程:AI Advantage Community 提供 $79 的 Prompt Engineering 专项课程

2. Matt Wolfe

  • 频道链接https://www.youtube.com/@MattWolfe
  • 订阅数:694,000+(截至 2026 年 2 月)
  • 语言:英语
  • 内容覆盖
    • 每周 AI 全景报道(新工具、新功能、行业动态)
    • ChatGPT 新功能、插件、提示词技巧
    • AI 工具评测与对比
  • 质量评估:内容密度高、更新频率快,适合想跟踪 AI 生态的忙碌学习者。偏资讯型,prompt engineering 专项教程较少,但覆盖面广
  • 关联网站:futuretools.io(AI 工具索引)

3. AI Jason(Jason Zhou)

  • 频道链接https://www.youtube.com/@AIJason
  • 订阅数:27,600+
  • 语言:英语
  • 内容覆盖
    • AI 实验与产品设计
    • 高级 Prompt Engineering 技巧(如 “GPT 10x 性能优化”,281K+ 播放)
    • LLaMA、多模态 AI 实验
  • 质量评估:产品设计师视角,内容独特且实验性强,适合中高级用户

4. Matthew Berman

  • 频道链接https://www.youtube.com/@MatthewBerman
  • 语言:英语
  • 内容覆盖
    • Prompt Engineering 教程,教授如何为 AI 工具制作有效提示词
    • AI 新闻、教程、真实案例
  • 质量评估:内容全面,教学风格清晰,适合各级别学习者

5. DeepLearning.AI

  • 频道链接https://www.youtube.com/@Deeplearningai
  • 语言:英语
  • 内容覆盖
    • 结构化的生成式 AI、神经网络、机器学习课程
    • Andrew Ng 主讲的系列短课程
  • 质量评估:学术严谨,体系完整,业界标杆级教育频道

6. Prompt Engineering Daily

  • 语言:英语
  • 内容覆盖
    • 每日更新:新闻、教程、案例研究
    • 视频通常不超过 10 分钟,高效简洁
  • 质量评估:适合碎片化学习,每天跟进最新 prompt 技术

7. SynthMind Academy

  • 语言:英语
  • 内容覆盖
    • 高级 Prompt 主题:元提示(meta-prompting)、多智能体 Prompt、AI 协作
    • 制作精良
  • 质量评估:生产质量在同类频道中最高之一,适合进阶学习者

8. Prompt Hackers

  • 语言:英语
  • 内容覆盖
    • 实验分享、快捷技巧、最佳实践
    • 学习方式偏实践(learning by doing)
  • 质量评估:风格轻松实用,适合喜欢动手尝试的学习者

9. Mervin Praison

  • 频道链接https://www.youtube.com/@MervinPraison
  • 语言:英语
  • 内容覆盖
    • 逐步教学 Prompt Engineering
    • 帮助学生从零构建优质提示词
  • 质量评估:步骤清晰,对初学者非常友好

10. FutureCoder AI

  • 语言:英语
  • 内容覆盖
    • 面向软件开发者的 Prompt Engineering
    • 构建 AI 应用、使用 API、Python 实战
  • 质量评估:开发者视角,适合想将 prompt engineering 融入工程实践的人

11. 1LittleCoder

  • 语言:英语
  • 内容覆盖
    • Prompt Engineering + 编程教程结合
    • 演示如何将 prompt 与 Python 配合使用
  • 质量评估:适合有编程基础的初学者

12. AI Toolbox

  • 语言:英语
  • 内容覆盖
    • AI 工具综合介绍
    • Prompt Engineering 在数据分析、报告、邮件等场景的应用
  • 质量评估:实用场景丰富,适合职场人士

13. 3Blue1Brown(辅助理解)

  • 频道链接https://www.youtube.com/@3blue1brown
  • 语言:英语
  • 内容覆盖
    • 神经网络系列(梯度下降、反向传播等数学可视化)
    • 不直接教 prompt engineering,但帮助理解 LLM 底层原理
  • 质量评估:全网最佳数学可视化频道,理解底层有助于写出更好的 prompt

二、最受欢迎/高评价的教程视频

1. DeepLearning.AI — ChatGPT Prompt Engineering for Developers(必看)

  • 讲师:Isa Fulford(OpenAI)& Andrew Ng(吴恩达)
  • 链接https://www.deeplearning.ai/short-courses/chatgpt-prompt-engineering-for-developers/
  • 平台:DeepLearning.AI 官网(免费)+ Coursera
  • 内容:LLM 工作原理、两大核心原则、系统性 prompt 设计方法、构建聊天机器人
  • 质量评估:业界公认最权威的入门课程,免费且短小精悍,强烈推荐作为第一门课

2. H-EDUCATE — ChatGPT Prompt Engineering Course

3. Snorkel AI — Prompt Engineering Techniques: A Practical Guide

4. Great Learning — Prompt Engineering Full Course

5. James Briggs — Prompt Engineering with OpenAI’s GPT-3 and Other LLMs

6. “The ULTIMATE 2025 Guide to Prompt Engineering”


三、系统性课程/视频系列

1. DeepLearning.AI 系列短课程(最推荐)

  • 链接https://www.deeplearning.ai/courses/
  • 包含课程:ChatGPT Prompt Engineering for Developers / Building Systems with ChatGPT / Generative AI for Everyone / LangChain、RAG 等
  • 质量评估:Andrew Ng 团队出品,结构化程度最高,免费,业界标杆

2. Microsoft — Generative AI for Beginners(18 集系列)

3. Learn Prompting 平台

  • 链接https://learnprompting.org/
  • 内容:60+ 内容模块、9 种语言翻译(含中文)、从入门到高级的完整学习路径、互动练习
  • 质量评估:互联网上最大最全面的 prompt engineering 课程,社区活跃

4. Anthropic 官方 Prompt 教程


四、中文资源

YouTube 中文频道

重要发现:中文 Prompt Engineering 社区的核心内容更多分布在即刻、微信公众号、知乎、B 站等国内平台,YouTube 上的中文专项频道较少。以下为可在 YouTube 或其他平台找到的中文资源。

中文学习资源

1. 宝玉(@dotey)

  • 平台:X(Twitter)、博客 (baoyu.io)
  • 内容:Prompt Engineering 学习资源整理与推荐、Google 官方白皮书中文解读、伪代码 Prompt 写法拆解
  • 质量评估:中文圈 Prompt Engineering 资源整合做得最好的博主之一

2. 李继刚

  • 平台:即刻、微信公众号
  • 内容:高级 Prompt 设计方法(如”汉语新解”卡片生成)、伪代码 + Claude 能力结合的创新 Prompt 写法
  • 质量评估:中文圈公认的 Prompt 大神,创新性极强

3. 面向开发者的 Prompt 工程(吴恩达课程中文版)

4. Learning-Prompt(免费中文教程)

5. 提示工程指南(中文版)

6. LangGPT


五、推荐学习路径

入门阶段

  1. DeepLearning.AI - ChatGPT Prompt Engineering for Developers(1-2 小时,免费)
  2. Learn Prompting 中文版(系统学习,免费)
  3. The AI Advantage YouTube 入门系列

进阶阶段

  1. Prompt Engineering Guide(DAIR.AI,理论深入)
  2. SynthMind Academy(高级主题)
  3. Anthropic 官方教程(Claude 特定优化)

中文学习者

  1. 宝玉的资源推荐列表作为索引
  2. 李继刚的实战案例作为灵感
  3. Learning-Prompt 中文教程作为系统课程

YouTube 调研参考来源



Part B: GitHub 资源汇总

一、Awesome Lists(精选资源列表)

1. f/awesome-chatgpt-prompts

  • URL: https://github.com/f/awesome-chatgpt-prompts
  • Stars: ~150k+(GitHub 上最热门的 prompt 仓库)
  • 描述: 世界最大的开源 prompt 库,支持 ChatGPT、Claude、Gemini、Llama、Mistral 等。被 Forbes 报道,Harvard/Columbia 引用,40+ 学术引用,Hugging Face 最受欢迎数据集。现已更名为 prompts.chat,支持自托管。
  • 维护状态: 活跃维护中(2026年仍在更新)
  • 语言: English

2. promptslab/Awesome-Prompt-Engineering

  • URL: https://github.com/promptslab/Awesome-Prompt-Engineering
  • Stars: ~58k+
  • 描述: 手工策划的 Prompt Engineering 资源合集,聚焦 GPT、ChatGPT、PaLM 等模型。涵盖 GPT-5、DSPy、LangGraph、Agent 架构等最新内容。
  • 维护状态: 活跃(2026年2月更新)
  • 语言: English

3. snwfdhmp/awesome-gpt-prompt-engineering

4. ai-boost/awesome-prompts

  • URL: https://github.com/ai-boost/awesome-prompts
  • Stars: ~5k+
  • 描述: GPTs Store 中评分最高的 GPTs prompt 合集,涵盖 prompt attack & prompt protect、高级 Prompt Engineering 论文。
  • 维护状态: 维护中
  • 语言: English

5. EliFuzz/awesome-system-prompts

  • URL: https://github.com/EliFuzz/awesome-system-prompts
  • Stars: 增长中(较新仓库)
  • 描述: 收集各大 AI Coding Agent 的系统提示词和工具定义:Augment Code、Claude Code、Cluely、Cursor、Devin AI、Kiro、Perplexity、VSCode Agent、Gemini、Codex、OpenAI 等。
  • 维护状态: 非常活跃(持续追踪最新 agent 的系统提示词)
  • 语言: English

6. Meirtz/Awesome-Context-Engineering

  • URL: https://github.com/Meirtz/Awesome-Context-Engineering
  • Stars: 增长中(新兴方向)
  • 描述: Context Engineering 综合调研:从 prompt engineering 到生产级 AI 系统,包含数百篇论文、框架和实现指南。
  • 维护状态: 活跃
  • 语言: English

二、综合指南与课程

1. dair-ai/Prompt-Engineering-Guide ⭐推荐

  • URL: https://github.com/dair-ai/Prompt-Engineering-Guide
  • 网站: https://www.promptingguide.ai/
  • Stars: ~66k+
  • 描述: 最全面的 prompt engineering 指南,包含指南、论文、课程、Notebook 和资源。涵盖 prompt engineering、context engineering、RAG、AI Agents。已有 300 万+ 学习者,被 WSJ 和 Forbes 引用。支持 13 种语言。
  • 维护状态: 非常活跃(2026年3月11日更新)
  • 语言: English(多语言翻译)

2. anthropics/prompt-eng-interactive-tutorial

3. anthropics/courses

  • URL: https://github.com/anthropics/courses
  • 描述: Anthropic 官方教育课程合集,含 prompt_engineering_interactive_tutorial 等多个课程。
  • 维护状态: 官方维护
  • 语言: English

4. NirDiamant/Prompt_Engineering

  • URL: https://github.com/NirDiamant/Prompt_Engineering
  • Stars: 增长中
  • 描述: 全面的 Prompt Engineering 技术教程和实现合集,从基础概念到高级策略。包含 22 个实操 Jupyter Notebook 教程。
  • 维护状态: 活跃
  • 语言: English

5. brexhq/prompt-engineering

6. MiesnerJacob/learn-prompting


三、Prompt 库和集合

1. f/awesome-chatgpt-prompts(同上)

  • 最大的开源 prompt 库,150k+ stars

2. mustvlad/ChatGPT-System-Prompts

3. langgptai/Top-GPTs-Prompts

4. EliFuzz/awesome-system-prompts(同上)

  • 各主流 AI Coding Agent 系统提示词合集

四、中文 Prompt 资源

1. PlexPt/awesome-chatgpt-prompts-zh ⭐推荐

2. langgptai/LangGPT ⭐推荐

  • URL: https://github.com/langgptai/LangGPT
  • Stars: ~11k+
  • 描述: 结构化提示词(Structured Prompt)提出者,元提示词(Meta-Prompt)发起者。最流行的提示词落地范式,由”云中江树”创建。提供结构化和元提示词设计框架。
  • 维护状态: 活跃
  • 语言: 中文/English

3. langgptai/wonderful-prompts

4. yunwei37/Prompt-Engineering-Guide-zh-CN

5. GitHubDaily/ChatGPT-Prompt-Engineering-for-Developers-in-Chinese

6. K-Render/best-chinese-prompt

7. ConnectAI-E/Prompt-Engineering-Tutior

8. bytearch/chatgpt-prompts


五、工具和框架

1. stanfordnlp/dspy ⭐推荐

  • URL: https://github.com/stanfordnlp/dspy
  • Stars: ~20k+
  • 描述: Stanford NLP 出品。“编程而非提示”语言模型的框架。可快速迭代构建模块化 AI 系统,提供算法优化 prompt 和权重。代表了从手工 prompt engineering 到自动化 prompt 优化的范式转变。
  • 维护状态: 非常活跃
  • 语言: English

2. mshumer/gpt-prompt-engineer

  • URL: https://github.com/mshumer/gpt-prompt-engineer
  • Stars: ~8k+
  • 描述: 输入任务描述和测试用例,系统自动生成、测试和排名多个 prompt,找出最佳表现者。支持 GPT 和 Claude。
  • 维护状态: 维护中
  • 语言: English

3. Eladlev/AutoPrompt

  • URL: https://github.com/Eladlev/AutoPrompt
  • Stars: ~2k+
  • 描述: 基于意图校准(Intent-based Prompt Calibration)的 prompt 调优框架。使用 GPT-4 Turbo 在几分钟内完成优化,成本低于 $1。适用于内容审核、多标签分类、内容生成等生产场景。
  • 维护状态: 维护中
  • 语言: English

4. linshenkx/prompt-optimizer

5. gepa-ai/gepa

  • URL: https://github.com/gepa-ai/gepa
  • 描述: 基于 AI 驱动的反射式文本进化(Reflective Text Evolution)来优化 prompt 和代码。
  • 维护状态: 活跃
  • 语言: English

6. SalesforceAIResearch/promptomatix


六、趋势观察

  1. 从 Prompt Engineering 到 Context Engineering: 2025-2026 年的趋势是从单纯的 prompt engineering 扩展到更广义的 context engineering,关注整个上下文窗口的构建(包括 RAG、工具定义、系统提示等)。
  2. 自动化 Prompt 优化: DSPy 引领的”编程而非提示”范式越来越流行,手动写 prompt 逐步让位于算法优化。
  3. Agent 系统提示词: 随着 AI Agent 生态爆发,收集和研究各大 Agent 系统提示词成为热门方向。
  4. 结构化 Prompt: LangGPT 等框架推动了结构化提示词的落地,从”随手写 prompt”到有章法地设计 prompt。

七、TOP 10 推荐(按优先级排序)

排名仓库Stars推荐理由
1dair-ai/Prompt-Engineering-Guide66k+最全面的指南,持续更新,多语言
2f/awesome-chatgpt-prompts150k+最大的 prompt 库,社区活跃
3PlexPt/awesome-chatgpt-prompts-zh57k+最佳中文 prompt 资源
4promptslab/Awesome-Prompt-Engineering58k+最佳 awesome list
5stanfordnlp/dspy20k+自动化 prompt 优化的未来方向
6langgptai/LangGPT11k+结构化 prompt 设计框架
7anthropics/prompt-eng-interactive-tutorial-官方交互式教程,质量保证
8NirDiamant/Prompt_Engineering-22 个实操 Notebook
9EliFuzz/awesome-system-prompts-Agent 时代必备参考
10mshumer/gpt-prompt-engineer8k+实用的 prompt 自动测试工具


Part C: 社区、课程、博客、书籍、中文资源

调研日期:2026-03-19


一、Reddit 社区

核心子版块

子版块成员数描述适合人群
r/PromptEngineering301k+提示词工程专属社区,讨论技巧、最佳实践、案例研究全级别
r/ChatGPT1.8M+最大的 ChatGPT 用户社区,含大量 prompt 分享初/中级
r/LocalLLaMA活跃本地大模型社区,偏技术向的 prompt 讨论中/高级
r/StableDiffusion450k+AI 图片生成 prompt 交流,适合视觉类提示词全级别
r/generativeAI活跃生成式 AI 综合讨论,开发者与创作者协作中/高级
r/LargeLanguageModels活跃论文、教程、工具分享中/高级

热门帖子趋势(2025)

  • 高赞帖强调 prompt 结构化的重要性:“给它角色、格式,还是直接问问题?”
  • 最佳 system prompt 需定义:persona、constraints、output format、tone、好坏示例
  • Few-shot 和 Chain-of-Thought 技术在实际应用中持续高效

其他社区平台


二、X/Twitter 关键账号

账号身份/背景关注理由粉丝量
@goodside (Riley Goodside)前 Scale AI Staff Prompt Engineer,现 Google DeepMindPrompt Engineering 领域先驱,发明了”Ignore all previous instructions”攻击和”glitch tokens”概念,现专注 AI red teaming150k+
@logank (Logan Kilpatrick)Google DeepMind 产品负责人,前 OpenAI分享 LLM 产品化实践和 prompt 技巧大量
@AndrewYNg (Andrew Ng)DeepLearning.AI 创始人AI 教育权威,定期分享 prompt engineering 课程和资源大量
@CharaspowerAIAI 内容创作者电影级视觉效果 + 详细 prompt 工作流分享
@astronomerozge1AI 艺术家分享精确 prompt 和实验变体

关注建议:X 上最实用的 prompt 洞察通常来自独立 AI 创作者,他们亲自实验模型并分享真实有效的方法。新模型、prompt 技巧和工作流往往在 X 上最先传播。


三、在线课程

免费课程

课程名平台讲师描述评分适合人群
ChatGPT Prompt Engineering for DevelopersDeepLearning.AIAndrew Ng + Isa Fulford (OpenAI)经典入门课,涵盖 LLM 原理、prompt 最佳实践、构建聊天机器人。Jupyter 实操。Coursera 4.7/5 (2237评)初/中级开发者
Anthropic Interactive Prompt Engineering TutorialGitHubAnthropic 官方9 章节 + 练习 + 高级附录,系统学习 Claude prompt 优化高质量全级别
Foundations of Prompt EngineeringAWSAWS 团队概念 + 实际应用的实践方法良好初/中级
Learn Prompt EngineeringCodecademyCodecademy交互式入门良好初级
Analytics Vidhya 7 Free CoursesAnalytics Vidhya多位讲师7 个免费课程 + 证书良好初/中级

付费课程

课程名平台价格描述适合人群
Prompt Engineering for ChatGPTCoursera (Vanderbilt)订阅制 (~$49/月)系统学习 prompt 模式和 LLM 交互初级
The Complete Prompt Engineering for AI Bootcamp (2026)Udemy~$13-30 (常打折)全面 bootcamp 式训练初/中级
Advanced Prompt EngineeringCoursera (Vanderbilt)订阅制多轮对话、RAG 集成、schema-compliant prompting中/高级
Prompt Engineering with Vertex AICoursera (Google Cloud)订阅制Google Cloud 生产环境的 prompt 工程中/高级
Zero To Mastery BootcampZero To Mastery订阅制实战导向初/中级
慕课网 - 提示词工程+大语言模型慕课网付费中文课程,含提示词框架、AI Agent初/中级

课程推荐 TOP 3(性价比最高)

  1. Andrew Ng 的 DeepLearning.AI 短课 — 免费、权威、实操强,开发者必学
  2. Anthropic 官方交互教程 — 免费、系统完整、9 章节 + 练习
  3. Vanderbilt 的 Coursera 课程 — 体系化学习,有证书

四、博客与 Newsletter

官方指南(强烈推荐)

资源URL描述免费
Anthropic Prompting Best PracticesClaude 官方文档涵盖 Claude Opus 4.6/Sonnet 4.6/Haiku 4.5 的完整指南,含 prompt generator、模板、improver免费
Prompt Engineering Guide (DAIR.AI)promptingguide.aiGitHub 6 万星,最全面的 prompt 工程指南免费
IBM Prompt Engineering Guide (2026)IBM工具、教程、真实案例、Python 实现免费
Google Prompt Engineering GuideGoogle Cloud68 页实用文档,初学者到资深免费

博客与教程

资源URL描述
Lakera Ultimate Guide (2026)Lakera 博客全面指南
CodeSignal Best Practices 2025CodeSignal实践导向
DataUnboxed: 15 TechniquesDataUnboxed15 种核心技术详解
Generative Programmer 2026 EditionSubstack2026 版资源汇总
Aakash Gupta - Latest Best PracticesNewsletter基于专业 AI 研究的最新实践
Anthropic - Effective Context Engineering for AI AgentsAnthropic 工程博客从 prompt engineering 到 context engineering

Newsletter

名称描述频率
Prompt Engineering DailyAI 提示词、工具、观点每日精选每日
Nate’s Newsletter初学者指南 + A-to-Z 高级指南定期
The Neuron3 分钟 AI 趋势日报工作日
Superhuman AIAI 趋势 newsletter定期
Riley Goodside on The GradientPrompt Engineering 艺术与技艺深度访谈不定期

五、书籍

书名作者出版社价格描述适合人群推荐度
Prompt Engineering for LLMsJohn Berryman, Albert ZieglerO’Reilly (2024.12)~$40-50280+ 页,涵盖模型架构、结构化 prompt、few-shot、CoT、RAG中/高级强烈推荐
Prompt Engineering for Generative AIJames Phoenix, Mike TaylorO’Reilly~$40-50面向生成式 AI 的 prompt 原理和实践初/中级推荐
AI EngineeringChip Huyen~$40-50AI 工程全栈指南,prompt + 部署 + 监控 + 扩展中/高级强烈推荐
The LLM Engineering HandbookPaul Iusztin, Maxime Labonne~$40-50Prompt + 微调 + RAG + 评估 + 生产模式中/高级推荐
Generative AI Design PatternsV. Lakshmanan, H. HapkeO’Reilly~$40-50prompt 在真实系统中的运作高级推荐
AI Prompt Engineering: 2025 HandbookMark J. BaarsAmazon~$15-20实用手册初/中级一般

六、中文资源(知乎/B站/公众号/社区)

知乎专栏

文章URL描述
提示词工程完全指南:从小白到高手知乎全面入门到精通
小白必看!轻松入门 Prompt Engineering知乎零基础入门
大模型入门指南 - PE 全解析知乎系统化解析
PE 看这一篇就够了知乎一站式教程
Prompt 资源精选知乎资源汇总
GitHub 标星 6 万的提示词工程指南知乎DAIR.AI 指南介绍
免费学习课程汇总知乎免费课程集合

B站视频

视频URL描述
一小时入门 AI 大模型提示词工程B站超详细入门,“草履虫都能听懂”

中文 GitHub 项目

项目URL描述星数
PE Guide 中文版GitHubDAIR.AI 指南中文翻译,持续更新
LangGPT 结构化提示词GitHub国内最大结构化提示词社区,云中江树创建,被百度/智谱/字节/华为采用10,000+
PE Guide 官方中文网站提示工程指南官方中文版60,000+

其他中文资源

资源URL描述
百度千帆 - 提示词工程最佳实践百度智能云官方最佳实践
53AI - LangGPT 之路53AILangGPT 学习路径
苏米客 - 2025 AI 指令合集苏米客入门到精通,适配 DeepSeek
少数派 - LangGPT 年度分享少数派AI 交流的艺术
博客园 - 入门与实践指南博客园实践导向
博客园 - 15+ 框架全攻略博客园BROKE、COAST、LangGPT 等

LangGPT 结构化提示词(中文核心框架)

  • 官网langgpt.ai
  • GitHubgithub.com/langgptai/LangGPT
  • FlowGPT 社区flowgpt.com/@langgpt
  • 核心理念:将 prompt 视为编程语言,系统化、模板化、可无限扩展
  • 模块:Role、Profile、Goals、Constraints、Skills、Workflows 等
  • 影响力:已被百度、智谱、字节、华为等国内主流大模型平台采用

七、学习路径建议

初学者路线(免费)

  1. DeepLearning.AI - ChatGPT PE for Developers (1-2 小时)
  2. Prompt Engineering Guide 中文版 (系统阅读)
  3. Anthropic 官方交互教程 (9 章 + 练习)
  4. r/PromptEngineering 浏览热门帖

中级路线

  1. 阅读 Prompt Engineering for LLMs (O’Reilly)
  2. Anthropic Prompting Best Practices
  3. LangGPT 结构化提示词 掌握框架化方法
  4. 订阅 Prompt Engineering Daily newsletter

高级路线

  1. 阅读 AI Engineering (Chip Huyen) + Generative AI Design Patterns (O’Reilly)
  2. Coursera Advanced Prompt Engineering (Vanderbilt)
  3. 关注 Riley Goodside (@goodside) 的 red teaming 探索
  4. 参与 r/LocalLLaMA,研究不同模型 prompt 差异

八、全局质量评级

资源质量免费推荐度
DeepLearning.AI Andrew Ng 课程S 级免费必学
Anthropic 官方文档 + 交互教程S 级免费必学
Prompt Engineering Guide (DAIR.AI)S 级免费必学
LangGPT 结构化提示词A 级免费中文用户强推
O’Reilly 系列书籍A 级付费深入学习
AI Engineering (Chip Huyen)A 级付费全栈工程师
IBM/Google 官方指南A 级免费补充阅读
Reddit 社区B+ 级免费日常浏览
Udemy 课程B 级付费(低价)视频偏好者
知乎/B站 中文教程B+ 级免费中文入门

调研参考来源

1 AI 公司官方一手 Prompt Engineering 指南汇总

AI 公司官方一手 Prompt Engineering 指南汇总

📍 位置:提示工程教程 / 官方指南 📌 核心发现:Anthropic/OpenAI/Google 均有高质量官方文档,Anthropic 的交互式 Jupyter 教程实操性最强 📥 输入:各 AI 公司官方文档手工整理 📤 流向:→ 0-学习资源总目录.md Part D

调研日期:2026-03-19


一、Anthropic(Claude)

1. Prompt Engineering 官方文档

2. 交互式 Prompt Engineering 教程(课程)

  • 标题: Anthropic’s Interactive Prompt Engineering Tutorial
  • URL: https://github.com/anthropics/prompt-eng-interactive-tutorial
  • 描述: 9 章 + 附录的完整交互式课程,从基础到高级逐步深入。每章配有练习和”示例游乐场”可实验。使用 Jupyter Notebook 格式,需 API Key 交互(也有静态答案版本可查看)。
  • 质量评估: ★★★★★ — 结构化学习最佳选择,hands-on 实操
  • 免费/付费: 免费(需 API Key 运行,API 调用产生少量费用)

3. Anthropic 教育课程合集

  • 标题: Anthropic’s Educational Courses
  • URL: https://github.com/anthropics/courses
  • 描述: 包含多个课程模块:
    • prompt_engineering_interactive_tutorial — Prompt Engineering 交互教程
    • API 基础(Claude SDK 使用)
    • real_world_prompting — 真实世界 prompting 实战
    • tool_use — 工具使用教程
    • Prompt Evaluations(prompt 评估)
  • 质量评估: ★★★★★ — 覆盖面广,从入门到实战,官方出品
  • 免费/付费: 免费

4. Claude Cookbooks

  • 标题: Claude Cookbooks
  • URL: https://github.com/anthropics/claude-cookbooks
  • 描述: 实用 Notebook/Recipe 集合,展示 Claude 的各种用法。包含工具使用、Memory、Skills(Excel/PPT/PDF 生成)、上下文编辑策略等。代码可直接复制使用。
  • 质量评估: ★★★★ — 实用代码片段,适合直接集成到项目
  • 免费/付费: 免费

5. Context Engineering 文章

6. Prompt Engineering for Business Performance


二、OpenAI(GPT)

1. Prompt Engineering 官方指南

2. GPT-4.1 Prompting Guide

  • 标题: GPT-4.1 Prompting Guide
  • URL: https://cookbook.openai.com/examples/gpt4-1_prompting_guide
  • 描述: 针对 GPT-4.1 的专属 prompting 指南。GPT-4.1 训练为更字面、更精确地遵循指令,高度可操控。涵盖 agentic 工作流、指令遵循优化、编码任务最佳实践。
  • 质量评估: ★★★★★ — 模型专属优化指南,非常实用
  • 免费/付费: 免费

3. GPT-5 Prompting Guide

  • 标题: GPT-5 Prompting Guide
  • URL: https://cookbook.openai.com/examples/gpt-5/gpt-5_prompting_guide
  • 描述: GPT-5 专属 prompting 指南。重点:定义 agent 角色、结构化工具使用(含示例)、要求彻底测试以确保正确性、设定 Markdown 标准。
  • 质量评估: ★★★★★ — 最新模型指南
  • 免费/付费: 免费

4. GPT-5.1 / GPT-5.2 Prompting Guide

5. OpenAI Help Center - Prompt Engineering 集合

6. OpenAI Academy

7. OpenAI Cookbook


三、Google / DeepMind(Gemini)

1. Gemini API Prompt Design Strategies

  • 标题: Prompt design strategies
  • URL: https://ai.google.dev/gemini-api/docs/prompting-strategies
  • 描述: Gemini API 官方 prompt 设计策略指南。涵盖基础概念、策略和最佳实践。适用于所有 Gemini 模型。
  • 质量评估: ★★★★ — 基础全面,适合入门
  • 免费/付费: 免费

2. Gemini 3 Prompting Guide(最新)

  • 标题: Gemini 3 prompting guide
  • URL(Cloud): https://docs.cloud.google.com/vertex-ai/generative-ai/docs/start/gemini-3-prompting-guide
  • URL(Dev): https://ai.google.dev/gemini-api/docs/gemini-3
  • 描述: 针对最新 Gemini 3 模型的专属 prompting 指南。关键要点:
    • 强烈建议温度保持默认 1.0,低于 1.0 可能导致循环或性能下降(尤其数学/推理任务)
    • 系统指令或提示开头放行为约束、角色定义、输出格式要求
    • 大量上下文先提供,具体问题放最后
    • 默认启用动态思考(dynamic thinking),可通过 thinking_level 参数控制
    • 知识截止日期:2025 年 1 月
  • 质量评估: ★★★★★ — 最新模型专属,含重要的温度设置警告等独特建议
  • 免费/付费: 免费

3. Vertex AI Prompt Design 文档

4. Gemini Enterprise Prompt Guide


四、Meta(Llama)

1. Llama 3.1 Prompt Format 文档

2. Llama 3.2 Text Prompt Format 文档

3. Llama Cookbook

  • 标题: Llama Cookbook
  • URL: https://github.com/meta-llama/llama-cookbook
  • 描述: 使用 Llama 构建应用的综合指南,涵盖推理、微调、RAG 等端到端场景。
  • 质量评估: ★★★★ — 实战导向,覆盖面广
  • 免费/付费: 免费

4. Prompt-Ops(自动 Prompt 优化工具)

  • 标题: prompt-ops
  • URL: https://github.com/meta-llama/prompt-ops
  • 描述: Meta 官方出品的开源 prompt 优化工具(Python 包)。可将为其他 LLM 编写的 prompt 自动转换为 Llama 优化版本。
  • 质量评估: ★★★★ — 独特工具,迁移 prompt 非常实用
  • 免费/付费: 免费

五、Cohere

1. Prompt Engineering Basics(LLM University)

  • 标题: Prompt Engineering Basics
  • URL: https://cohere.com/llmu/prompt-engineering-basics
  • 描述: Cohere LLM University 出品的 prompt engineering 基础课程。
  • 质量评估: ★★★★ — 结构清晰,配合 LLM University 其他课程更佳
  • 免费/付费: 免费

2. Crafting Effective Prompts 文档

  • 标题: A Guide to Crafting Effective Prompts
  • URL: https://docs.cohere.com/v1/docs/crafting-effective-prompts
  • 描述: 官方文档 prompt 指南。策略:格式化和分隔符、上下文、示例、结构化输出、做 vs 不做、长度控制、自己开始补全、任务拆分。
  • 质量评估: ★★★★ — 实用技巧多
  • 免费/付费: 免费

3. Constructing Prompts

4. Prompt Tuner


六、Mistral AI

1. Prompting Guide

  • 标题: Prompting | Mistral Docs
  • URL: https://docs.mistral.ai/guides/prompting_capabilities
  • 描述: Mistral 官方 prompting 指南。涵盖基础 prompt 编写、few-shot、结构化输出、prompt chaining、JSON 模式等。
  • 质量评估: ★★★★ — 官方权威,覆盖常用技巧
  • 免费/付费: 免费

2. Prompting Capabilities Cookbook

3. Help Center 简易指南


七、各公司资源对比总览

公司官方文档交互式课程Cookbook模型专属指南自动优化工具整体评分
Anthropic★★★★★★★★★★(9章完整课程)★★★★★★★★★(Claude 4 最佳实践)★★★★★
OpenAI★★★★★★★★★(Academy 视频)★★★★★★★★★★(GPT-4.1/5/5.1/5.2 各有指南)★★★★★
Google★★★★无独立课程无独立 cookbook★★★★★(Gemini 3 专属)★★★★
Meta★★★★★★★★★★★(格式文档)★★★★(prompt-ops)★★★★
Cohere★★★★★★★★(LLM University)★★★★★★(Prompt Tuner Beta)★★★★
Mistral★★★★★★★★★★★★★★☆

八、学习路径推荐

入门者

  1. OpenAI Prompt Engineering Guide(通用概念最清晰)
  2. Anthropic 交互式教程(hands-on 学习)
  3. Cohere LLM University(配套学习资源丰富)

开发者

  1. 目标模型的官方文档(根据你使用的模型选择)
  2. OpenAI Cookbook / Anthropic Claude Cookbooks(代码示例)
  3. 模型专属 Prompting Guide(GPT-5.2 / Claude 4 / Gemini 3)

进阶者

  1. Anthropic Context Engineering 文章
  2. Meta prompt-ops 自动优化工具
  3. 各模型最新专属指南的差异对比

所有资源均为免费。 唯一可能产生费用的是:Anthropic 交互式教程需要 API Key 运行(会产生少量 API 调用费用),以及 OpenAI Academy 未来推出的认证可能收费。

2 Prompt Engineering 精选数据源(分层优先级)

Prompt Engineering 精选数据源(分层优先级)

📍 位置:提示工程教程 / 精选数据源 📌 核心发现:按 T0/T1/T2/T3 分层,Anthropic 独占 T0,教程+生产提示词双管齐下 📥 输入:从 80+ 资源中按「最佳实践者优先」原则筛选 📤 流向:→ findings.md 收敛分析


筛选逻辑

核心原则:学最好的实践者,再用理论交叉验证。

谁做的模型最好 → 谁的教程最好 → 优先学谁的
理论和入门知识 → 只作为理解基础,不作为写 prompt 的直接参考
论文 → 为实践教程提供理论支撑,交叉验证用

分层设计:

层级定义学习权重
T0Anthropic(最强模型 + 最完整教程 + 可学习的生产提示词)60%
T1OpenAI、Google(全球前三,成熟的 Agent 生态和完整教程)25%
T2方法论框架(LangGPT 等,进阶参考)10%
T3入门百科 + 论文(基础了解 + 理论交叉验证)5%

T0:Anthropic(独占第一梯队)

Anthropic 的独特优势:不仅有教程,还有 可学习的生产级系统提示词(Claude Code、Claude.ai)。 这意味着你能看到「最好的模型厂商自己是怎么写 prompt 的」。

T0-1 — Anthropic 交互式教程(系统课程)

  • URL: https://github.com/anthropics/prompt-eng-interactive-tutorial
  • 内容: 9 章 + 高级附录,从基础到高级逐步深入
  • 爬取: 各章 Markdown 文件
  • 学什么: PE 的完整知识体系,从概念到实操的系统路径
  • 为什么 T0: 官方出品,最系统的 hands-on 教程,学完就能写

T0-2 — Anthropic PE 官方文档(最佳实践)

T0-3 — Anthropic real_world_prompting(实战场景)

  • URL: https://github.com/anthropics/coursesreal_world_prompting/ 目录
  • 内容: 客服系统、内容审核、数据提取等真实场景的 prompt 写法
  • 爬取: real_world_prompting/ 目录下 Markdown 文件
  • 学什么: 不是「什么是 CoT」,而是「在真实业务场景中怎么写」
  • 为什么 T0: 教程到实战的桥梁,官方示范「怎么用好」

T0-4 — Claude Code 系统提示词(生产级模板) ⭐ 新增

  • URL: https://github.com/Piebald-AI/claude-code-system-prompts
  • 补充: https://docs.anthropic.com/en/release-notes/system-prompts (官方发布的 Claude.ai 系统提示词)
  • 内容: Claude Code 完整系统提示词(18 个内置工具描述、子代理提示词、CLAUDE.md 机制)+ Claude.ai 各版本系统提示词
  • 爬取: 核心 prompt 文件 + CHANGELOG.md(131 个版本的演进)
  • 学什么: Anthropic 自己在生产环境中是怎么写系统提示词的 — 这是最好的学习模板
  • 为什么 T0: 不是教程而是真实产品,看「最好的人怎么做」比「最好的人怎么教」更有价值

T0-5 — Anthropic Context Engineering 博文(前沿方向)

T0-6 — Anthropic Prompt Library(官方示例库) ⭐ 新增

  • URL: https://docs.anthropic.com/en/prompt-library/library
  • 内容: 官方提供的高质量 prompt 示例集合,覆盖各种任务类型
  • 爬取: 完整示例库
  • 学什么: 官方认为的「好 prompt 长什么样」— 直接可用的参考模板
  • 为什么 T0: 不是理论而是示例,学以致用最快的路径

T1:OpenAI + Google(全球前三的另外两家)

与 Anthropic 三角对比:同一技巧,三家怎么说?共识 = 通用原则;差异 = 模型个性。

T1-1 — OpenAI PE 官方指南

  • URL: https://platform.openai.com/docs/guides/prompt-engineering
  • 内容: 经典六大策略(清晰指令、参考文本、任务拆分、思考时间、外部工具、系统测试)
  • 爬取: 完整指南页面
  • 学什么: 被全行业广泛引用的通用原则
  • 交叉验证: 与 T0-2 对比 → 共识 = PE 通用原则;差异 = 模型个性

T1-2 — OpenAI GPT-5.2 Prompting Guide

T1-3 — Google Gemini 3 Prompting Guide


T2:方法论框架(进阶参考)

这些是社区/企业总结出的方法论,有独特价值但排在三大厂商之后。

T2-1 — LangGPT 结构化提示词

  • URL: https://github.com/langgptai/LangGPT
  • 内容: 将 prompt 视为「编程语言」的结构化设计框架(Role/Profile/Goals/Constraints/Skills/Workflows)
  • 爬取: README + 模板文件 + 示例
  • 学什么: 一种系统化组织 prompt 的方法论
  • 定位: 在掌握 T0/T1 的技巧后,用这个框架来组织和复用

T2-2 — Brex prompt-engineering(企业实战)

  • URL: https://github.com/brexhq/prompt-engineering
  • 内容: 金融科技公司 Brex 在生产系统中使用 LLM 的技巧和教训
  • 爬取: 完整 README(一个文件,信息密度极高)
  • 学什么: 理论 vs 生产环境的差距,真实踩坑经验
  • 定位: 与 T0-4(Claude Code 系统提示词)对比 → 不同公司的生产实践

T3:入门百科 + 论文(基础了解 + 理论交叉验证)

这些资源的定位是「基础了解」和「理论支撑」,不直接指导写 prompt。

T3-1 — DAIR.AI Prompt Engineering Guide

  • URL: https://www.promptingguide.ai/
  • 内容: 66k⭐ 的全技巧百科,覆盖 CoT、Few-shot、ToT、ReAct、RAG 等 20+ 技巧的原理与论文出处
  • 爬取: 核心技巧页面(不需要全站,挑主要技巧即可)
  • 学什么: 了解各种技巧「是什么」和「为什么有效」
  • 定位: 入门时快速了解全景,之后作为查字典用。不能替代 T0/T1 的实践指导

T3-2 — 关键论文(理论交叉验证)

  • 来源: 从 DAIR.AI Guide 中引用的核心论文
  • 重点论文:
    • Chain-of-Thought Prompting(CoT 原论文)
    • Tree of Thoughts(ToT)
    • ReAct: Synergizing Reasoning and Acting
    • Self-Consistency
  • 定位: 当 T0/T1 的教程说「用 CoT 更好」时,论文回答「为什么更好」
  • 不需要单独爬取: DAIR.AI Guide 已经包含了论文解读

交叉验证关系

T0 (Anthropic)  ←——三角对比——→  T1 (OpenAI + Google)
      ↑                                  ↑
      │ 理论支撑                          │ 理论支撑
      ↓                                  ↓
            T3 (DAIR.AI 百科 + 论文)

T0-4 (Claude Code 生产提示词) ←——实战对比——→ T2-2 (Brex 生产经验)

T0-1/T0-2 (教程+文档) ←——框架化——→ T2-1 (LangGPT 结构化方法)

最有价值的三角对比

  • T0-2 vs T1-1 vs T1-3:Claude vs GPT vs Gemini 对同一技巧的不同建议
  • 共识 = 写好 prompt 的通用原则(可信度极高)
  • 差异 = 需要按模型调整的地方(最有实操价值)

爬取计划

第一批(T0,最高优先级)

序号资源预估页面数爬取方式
T0-1Anthropic 交互式教程9 章 .mdGitHub 直接读取
T0-2Anthropic PE 文档5-8 页baoyu-url-to-markdown
T0-3real_world_prompting3-5 文件GitHub 直接读取
T0-4Claude Code 系统提示词核心 prompt + changelogGitHub 直接读取
T0-5Context Engineering1 页baoyu-url-to-markdown
T0-6Prompt Library示例集baoyu-url-to-markdown

第二批(T1,次优先)

序号资源预估页面数爬取方式
T1-1OpenAI 指南1 页baoyu-url-to-markdown
T1-2GPT-5.2 Guide1 页baoyu-url-to-markdown
T1-3Gemini 3 Guide1-2 页baoyu-url-to-markdown

第三批(T2+T3,补充)

序号资源预估页面数爬取方式
T2-1LangGPTREADME + 模板GitHub 直接读取
T2-2Brex PE1 页 READMEGitHub 直接读取
T3-1DAIR.AI Guide5-10 核心页面baoyu-url-to-markdown

学习路径建议

Step 1: T0-1(教程)→ 系统建立 PE 知识框架
Step 2: T0-2(文档)→ 掌握 Claude 专属最佳实践
Step 3: T0-4(生产提示词)→ 研究「最好的人怎么做」
Step 4: T1-1 + T1-3(OpenAI + Google)→ 三角对比,提炼通用原则
Step 5: T0-3 + T0-6(实战 + 示例库)→ 在真实场景中练习
Step 6: T2-1(LangGPT)→ 建立自己的结构化 prompt 方法
Step 7: T0-5(Context Engineering)→ 理解 PE 的未来演进
3 Agent 提示词工程

Agent 提示词工程

📍 位置:提示工程教程 / Agent 提示词工程 📌 核心发现:Agent PE 的核心不是写给模型的指令,而是设计工具描述、行为边界和协作架构 📥 输入:Claude Code 完整系统提示词(v2.0.0 1159行 + v2.1.81 拆分版 3500+行)深度分析 📤 流向:→ findings.md Tier 3G 章节


核心认知

在 Agent 场景中,60% 的 prompt 工程是工具描述设计,20% 是行为约束,20% 是示例演示。传统”一问一答”的 PE 原则只覆盖了中间那 20%。

传统 Prompt Engineering 的心智模型是一次性输入 → 一次性输出:你写好一段提示词,模型返回一段文本,交互结束。在这个模型里,PE 的核心技巧——清晰的指令、好的示例、结构化的格式——都聚焦于”如何让模型生成正确的文本”。

Agent 场景颠覆了这个模型。Agent 不是”回答问题”,而是”执行任务”。它有工具可以调用、有文件可以修改、有命令可以执行。这意味着:

  1. 行动决策取代文本生成:核心挑战不是”生成什么文本”,而是”做不做、什么时候做、怎么做”
  2. 工具描述成为主要的 PE 载体:模型根据工具描述决定调用哪个工具、传什么参数——工具描述的质量直接决定 Agent 的行为质量
  3. 安全性成为一等公民:Agent 可以删文件、push 代码、发消息——一个错误的决策可能造成不可逆的后果
  4. 持续交互取代单次调用:Agent 在长会话中工作,需要管理上下文、记忆、模式切换

本文档基于 Anthropic 的 Claude Code 系统提示词(目前公开可见的最复杂的生产级 Agent 提示词之一)提取的 30 个设计模式,整合为 10 个主题章节。每个原则都附有可直接复用的模板和原文证据。


一、主动性校准(Proactiveness Calibration)

整合自:AP-001 主动性光谱校准、AP-002 一次授权不等于全局授权

Agent 场景中最常见的用户抱怨是:“我只是想了解一下,你怎么就开始改了?” 主动性校准解决的是 Agent 的根本问题——它有能力行动,但什么时候该行动?

原则 1:主动性光谱校准

置信度:★★★★★(Claude Code 核心设计,v2.0.0 和 v2.1.81 双版本一致)

Agent 被允许主动行动,但仅限于用户已经要求做某事的上下文中。“问”和”做”是两种不同的响应模式,不能混为一谈。

为什么重要:这解决了 Agent 场景的核心张力——过度主动让用户失控感(“我的文件怎么被改了?”),过度被动让 Agent 无用(“你有能力改,为什么让我手动来?”)。关键洞察是区分用户的询问意图执行意图

怎么做:构建一个三层决策树:

  1. 用户在提问?→ 先回答问题,不要直接行动
  2. 用户要求做某事?→ 执行,包括合理的跟进行动
  3. 不确定?→ 默认为提问,回答而不行动

可复用模板

# 主动性校准
你被允许主动行动,但仅在以下条件下:
1. 用户已经明确要求你做某事(不仅仅是提问)
2. 行动是用户请求的合理延伸
3. 如果用户在提问,先回答问题,不要直接跳到执行
4. 对于跟进行动,在合理范围内可以主动执行

证据(Claude Code v2.0.0):

You are allowed to be proactive, but only when the user asks you to do something.
You should strive to strike a balance between:
- Doing the right thing when asked, including taking actions and follow-up actions
- Not surprising the user with actions you take without asking
For example, if the user asks you how to approach something, you should do your
best to answer their question first, and not immediately jump into taking actions.

原则 2:一次授权不等于全局授权

置信度:★★★★★(安全关键设计,有持久授权 vs 一次性授权的完整机制)

用户对某个操作的一次性批准,不构成对该操作在所有上下文中的全局授权。授权的范围严格匹配被请求的范围。

为什么重要:在长会话中,Agent 容易产生隐式授权蔓延——用户同意了一次 git push,Agent 就在后续自动 push。这是一个微妙但严重的安全风险。Claude Code 通过区分”一次性口头授权”和”CLAUDE.md 中的持久化配置授权”来解决这个问题。

怎么做

  • 一次性授权:仅适用于当次请求的具体范围
  • 持久化授权(如配置文件):可以跨会话生效
  • 高风险操作:即使之前授权过,在不同上下文中仍需确认

可复用模板

# 授权范围管理
- 用户对某操作的一次批准,仅适用于当次请求的具体范围
- 除非在持久化配置(如 [配置文件名])中预先授权,否则每次执行高风险操作前都需确认
- 授权范围:精确匹配用户请求的操作,不扩展到类似操作

证据(Claude Code v2.0.0):

A user approving an action (like a git push) once does NOT mean that they approve
it in all contexts, so unless actions are authorized in advance in durable
instructions like CLAUDE.md files, always confirm first.

二、工具描述设计(Tool Description Design)

整合自:AP-005 工具偏好层级、AP-006 工具描述的标准结构、AP-007 多工具协作 SOP、AP-029 Hooks 作为行为扩展点

在 Agent 场景中,工具描述是最重要的 PE 载体。模型根据工具描述决定:调用哪个工具、传什么参数、什么时候调用、什么时候不调用。工具描述写得不好,Agent 的行为就不好——这不是指令写得再好能补救的。

原则 3:工具偏好层级

置信度:★★★★★(Claude Code 中在多个位置反复强调,v2.1.81 进一步拆分为独立注入片段)

当多个工具都能完成同一任务时,必须定义明确的偏好层级:专用工具优先于通用工具。

为什么重要:没有明确偏好时,模型会随机选择工具,导致体验不一致和潜在问题。比如用 cat 还是 Read 工具读文件——前者的输出是混乱的终端文本,后者有结构化的行号和内容。

怎么做

  1. 列出所有”功能重叠”的工具对
  2. 为每对定义明确的优先级
  3. 在每个相关工具的描述中都重复这一偏好(散布重复策略)
  4. 给出偏好的理由(更好的体验、更安全等)

可复用模板

# 工具偏好层级
当多个工具可完成同一任务时:
- [任务A]: 使用 [首选工具] (NOT [替代工具1], [替代工具2])
- [任务B]: 使用 [首选工具] (NOT [替代工具1])
原因:[首选工具]提供更好的 [用户体验/安全性/性能]。

证据(Claude Code v2.0.0):

Avoid using Bash with the `find`, `grep`, `cat`, `head`, `tail`, `sed`, `awk`,
or `echo` commands. Instead, always prefer using the dedicated tools:
    - File search: Use Glob (NOT find or ls)
    - Content search: Use Grep (NOT grep or rg)
    - Read files: Use Read (NOT cat/head/tail)
    - Edit files: Use Edit (NOT sed/awk)
    - Write files: Use Write (NOT echo >/cat <<EOF)

原则 4:工具描述的标准结构

置信度:★★★★★(从 Claude Code 的 12+ 工具描述中归纳的一致模式)

工具描述应包含标准结构:功能概述 → 使用场景 → 不适用场景 → 具体用法 → 注意事项 → 示例。详细程度与误用风险成正比

为什么重要:Claude Code 中,最容易被误用的工具(TodoWrite)有 8 个正反对比示例,几乎不会被误用的工具(Glob)只有 5 行描述。这揭示了一个核心原则:不是所有工具都需要同等详细的描述,描述的投入应集中在误用风险最高的工具上

怎么做

  1. 评估每个工具的误用风险(低/中/高)
  2. 低风险工具:1-2 句功能说明 + 何时使用
  3. 中风险工具:功能 + 使用场景 + 不适用场景 + 注意事项
  4. 高风险工具:完整结构 + 多个正反对比示例 + <reasoning> 解释

可复用模板

# 高误用风险工具描述模板
[一句话功能说明]

## When to Use This Tool
- [场景1]
- [场景2]

## When NOT to Use This Tool
- [排除场景1]
- [排除场景2]

## Examples
<example type="good">
User: [输入]
Action: [正确行为]
<reasoning>为什么这样做是对的</reasoning>
</example>

<example type="bad">
User: [输入]
Action: [错误行为]
<reasoning>为什么这样做是错的</reasoning>
</example>

证据(Claude Code TodoWrite 工具,误用风险最高):

  • 7 个使用场景(When to Use)
  • 4 个排除场景(When NOT to Use)
  • 4 个正面示例 + 4 个反面示例
  • 每个示例都有 <reasoning> 标签

原则 5:多工具协作 SOP

置信度:★★★★★(Claude Code 为 git commit 和 PR 创建都定义了完整 SOP)

对于涉及多工具协作的关键工作流,提供完整的 SOP(标准操作流程),明确步骤顺序、并行机会和关键检查点。

为什么重要:单个工具的描述再好,也不能解决工具间的协作问题。“先 git status 还是先 git diff?可以并行吗?失败了怎么办?“——这些问题需要 SOP 级别的指导。

怎么做

  1. 识别关键的多工具工作流(高频 + 高风险)
  2. 将工作流拆为编号步骤
  3. 标注哪些步骤可以并行
  4. 标注步骤间的依赖关系
  5. 内联错误恢复策略

可复用模板

# [工作流名称] SOP
1. 以下操作并行执行:
   - [工具A 操作]
   - [工具B 操作]
2. [分析/决策步骤]:
   - [判断标准]
   - [关键检查点]
3. 以下操作并行执行:
   - [工具C 操作]
   - [工具D 操作]
   注意:[工具E 操作]依赖上述操作完成,需串行执行
4. 如果 [错误情况]:[恢复策略,不要重试同一操作]

证据(Claude Code git commit SOP):

1. run the following bash commands in parallel:
  - Run a git status command to see all untracked files.
  - Run a git diff command to see both staged and unstaged changes.
  - Run a git log command to see recent commit messages.
2. Analyze all staged changes and draft a commit message
3. run the following commands in parallel:
   - Add relevant untracked files to the staging area.
   - Create the commit with a message
   - Run git status after the commit completes to verify success.
   Note: git status depends on the commit completing, so run it sequentially.
4. If the commit fails due to pre-commit hook: fix the issue and create a NEW commit

原则 6:Hooks 作为行为扩展点

置信度:★★★★☆(v2.1.81 新增的高级特性,10 种事件类型覆盖完整生命周期)

通过事件钩子(Hooks)让用户在 Agent 的生命周期关键节点插入自定义逻辑,实现”用户自定义 Agent 行为”而无需修改系统提示词。

为什么重要:Agent 的行为需要可扩展,但直接修改系统提示词不现实也不安全。Hooks 提供了一种安全的扩展机制——用户可以在工具调用前后、会话开始结束时注入自定义逻辑。关键设计是:Hook 的输出被视为”来自用户”的反馈,Agent 应据此调整行为。

可复用模板

# 行为扩展点设计
在 Agent 生命周期的关键节点设置 Hook:
- PreToolUse: 工具调用前(可阻止执行)
- PostToolUse: 工具调用后(可注入反馈)
- SessionStart: 会话开始时
- Stop: 会话结束时
- UserPromptSubmit: 用户提交输入时

Hook 的输出被视为用户级反馈,Agent 应据此调整行为。
如果被 Hook 阻止,尝试调整方案;如果不理解原因,询问用户。

三、行为约束设计(Behavioral Constraints)

整合自:AP-008 否定约束的精确使用、AP-009 关键指令散布重复、AP-010 优先级标记词系统、AP-024 专业客观性、AP-025 拒绝的优雅退出、AP-027 约束范围的极简表达、AP-028 过度工程防护

行为约束是 Agent 提示词中占比最大的部分。不是因为 Agent “不听话”,而是因为 Agent 有太多行动自由——需要精确的边界来引导它在正确的轨道上运行。

原则 7:否定约束的精确使用

置信度:★★★★★(Claude Code 中有 15+ 个 NEVER、10+ 个 Do not,每个都映射到真实失败场景)

在安全约束、边界定义、破坏性操作限制场景中,否定指令(NEVER/Do not)比正面指令更直接有效。但否定指令必须具体到操作级别。

为什么重要:传统 PE 原则说”正面指令优于否定约束”(P021),但 Anthropic 的实践证明这不是硬规则。“不要 force push” 比 “使用安全的 git 操作” 更难被误解。关键在于:否定约束的每一条都应映射到一个具体的失败场景,不能泛泛地说”不要做坏事”。

怎么做

  • 高风险/破坏性操作 → NEVER + 具体操作名 + 例外条件
  • 行为偏好 → 正面指令(仍然是默认推荐)
  • 安全边界 → NEVER,通常不带例外
  • 每个 NEVER 背后应有一个真实的线上事故或失败场景

可复用模板

# [领域] 安全协议
- NEVER [具体操作1](如 push --force, reset --hard)unless [例外条件]
- NEVER [具体操作2] unless [例外条件]
- NEVER [绝对禁止的操作3]

证据(Claude Code Git Safety Protocol):

- NEVER update the git config
- NEVER run destructive git commands (push --force, reset --hard, checkout .,
  restore ., clean -f, branch -D) unless the user explicitly requests
- NEVER skip hooks (--no-verify, --no-gpg-sign, etc) unless user explicitly requests
- NEVER run force push to main/master, warn the user if they request it
- NEVER commit changes unless the user explicitly asks you to

原则 8:关键指令散布重复

置信度:★★★★★(Claude Code 在安全约束、并行调用、文件操作偏好上都使用了散布重复)

关键约束应在 prompt 中多个相关位置重复出现,确保无论模型”注意到”哪段文本,都能在近距离内找到关键约束。

为什么重要:在 1000+ 行的 prompt 中,LLM 的注意力分布是不均匀的。如果关键约束只出现一次,模型执行到远处段落时可能已经”遗忘”。散布重复比”首尾重申”更有效——它确保在模型执行到任何相关段落时,关键约束都在”近距离”可见。

怎么做

  1. 识别关键约束(安全、偏好、核心行为)
  2. 在系统提示开头完整声明
  3. 在每个相关工具的描述中重复(可换角度重述)
  4. 在相关 SOP 的步骤中引用
  5. 在系统提示末尾简短重申

可复用模板

# 散布重复清单
| 关键约束 | 出现位置 |
|----------|---------|
| [约束1] | 系统提示开头、工具A描述、工具B描述、SOP步骤X |
| [约束2] | 系统提示开头、系统提示末尾、工具C描述 |

证据:Claude Code 的安全约束在 L36-37 首次出现,L187 逐字重复。文件操作偏好在系统提示 Tool usage policy 中出现,又在 Bash 工具描述中出现,又在 Grep 工具描述中出现(“NEVER invoke grep as a Bash command”)。

原则 9:优先级标记词系统

置信度:★★★★★(Claude Code 使用了三级标记词体系:IMPORTANT / CRITICAL / NEVER)

使用分级标记词提升特定指令的优先级,让 Agent 在注意力有限的情况下优先遵守最重要的规则。

为什么重要:在 1000+ 行的 prompt 中,如果所有指令都平等对待,模型的”注意力预算”会被平均分配。标记词让模型将更多注意力分配给关键指令。但标记词必须谨慎使用——如果所有指令都标 CRITICAL,等于没有标记。

怎么做

  • CRITICAL:绝对不能违反的规则(安全、数据完整性)——最少使用
  • IMPORTANT:高优先级指令(输出质量、用户体验)——适中使用
  • 无标记:默认指令(偏好、风格)——最多使用
  • 使用量递减:CRITICAL < IMPORTANT < 无标记

可复用模板

CRITICAL: [绝对不能违反的安全规则]
IMPORTANT: [高优先级的质量/体验规则]
[无标记的默认偏好规则]

原则 10:约束范围的极简表达

置信度:★★★★★(Claude Code 的 “Do what has been asked; nothing more, nothing less” 是极简约束的典范)

一句话可以完成复杂约束——如果它同时覆盖了两个方向(不要少做、不要多做)。

为什么重要:简短的约束更难被忽略。在 prompt 的黄金位置(开头或 system-reminder)放一个极简但完整的约束声明,比详细的段落更有效。10 个英文单词完成了约束范围的全部工作。

证据(Claude Code system-reminder 开头):

Do what has been asked; nothing more, nothing less.

原则 11:过度工程防护

置信度:★★★★★(v2.1.81 拆为 5 个独立防护片段,每个防护一种具体的过度工程倾向)

LLM Agent 有强烈的”改善”倾向。需要逐条列出禁止的”改善”行为。

为什么重要:Agent 修 bug 时会顺便重构代码,加功能时会顺便加配置选项,写代码时会加不必要的错误处理。这些”改善”在用户看来是未经授权的修改。核心判断标准:三行重复代码优于过早抽象

可复用模板

# 过度工程防护
- 不要加功能、重构代码或做请求之外的"改善"
- 不要对没改动的代码加注释、类型标注或文档
- 不要为假设的未来需求设计
- 不要对不可能发生的场景加错误处理
- 不要创建一次性使用的工具函数或抽象
- 三行重复代码优于过早抽象

证据(Claude Code v2.1.81):

Don't add features, refactor code, or make "improvements" beyond what was asked.
A bug fix doesn't need surrounding code cleaned up. A simple feature doesn't need
extra configurability. Don't add docstrings, comments, or type annotations to code
you didn't change.

原则 12:专业客观性

置信度:★★★★★(Claude Code 明确对抗 LLM 的”讨好”倾向)

技术准确性和真实性优先于验证用户的信念。Agent 应该像一个诚实的同事,在必要时提出异议。

为什么重要:LLM 倾向于”讨好用户”——同意用户的观点、过度赞美用户的代码。在工程场景中,这是危险的——虚假的同意可能让用户部署有缺陷的代码。

可复用模板

# 专业客观性
- 技术准确性 > 用户满意度
- 不要无根据地赞美或同意
- 有不确定性时,先调查再回应(不要本能地确认用户的假设)
- 尊重地纠正比虚假地同意更有价值

证据(Claude Code v2.0.0):

Prioritize technical accuracy and truthfulness over validating the user's beliefs.
It is best for the user if Claude honestly applies the same rigorous standards to
all ideas and disagrees when necessary, even if it may not be what the user wants
to hear. Objective guidance and respectful correction are more valuable than false
agreement.

原则 13:拒绝的优雅退出

置信度:★★★★☆(来自用户反馈驱动的设计,“preachy and annoying” 直接描述了用户感受)

拒绝应简洁、不说教、提供替代方案。

为什么重要:传统的 AI 拒绝通常包含长篇解释(“我不能这样做因为它可能导致…”),用户感受是被教育而非被帮助。

可复用模板

# 拒绝协议
如果你无法或不愿帮助用户某事:
- 不要解释为什么不能做(避免说教感)
- 1-2 句话完成拒绝
- 尽可能提供替代方案

证据(Claude Code v2.0.0):

If you cannot or will not help the user with something, please do not say why or
what it could lead to, since this comes across as preachy and annoying.

四、安全边界设计(Safety Boundaries)

整合自:AP-003 可逆性×影响范围决策矩阵、AP-030 信息安全出口控制

Agent 有”改变世界”的能力——删除文件、push 代码、发消息。安全边界设计不是”可选的最佳实践”,而是 Agent 提示词的基础设施层

原则 14:可逆性 × 影响范围决策矩阵

置信度:★★★★★(Claude Code 的核心安全设计,附带了 4 类风险操作的具体列表)

操作的风险等级由两个正交维度决定:可逆性(能否撤销)和影响范围(影响本地还是共享系统)。只有低风险操作才能自由执行。

为什么重要:这不是简单的”安全/危险”二分法。编辑本地文件是低风险的(可逆 + 本地),force push 到 main 是高风险的(不可逆 + 共享)。这个二维矩阵给了 Agent 一个系统化的决策框架。

怎么做

维度低风险高风险
可逆性编辑文件、运行测试删除分支、force push
影响范围本地文件共享仓库、外部服务

规则:

  • 本地 + 可逆 → 自由执行
  • 任一维度为高 → 确认后执行
  • 两个维度都高 → 谨慎确认,说明风险

可复用模板

# 操作风险评估
仔细评估操作的可逆性和影响范围。你可以自由执行本地的、可逆的操作(如编辑文件、运行测试)。
但对于以下类型的操作,必须先与用户确认:
- 破坏性操作:删除文件/分支、清空数据、终止进程
- 难以逆转的操作:force push、reset --hard、修改已发布的内容
- 影响他人的操作:push 代码、创建/关闭 PR、发送消息
- 信息泄露风险:上传内容到第三方服务

证据(Claude Code v2.0.0):

Carefully consider the reversibility and blast radius of actions. Generally you
can freely take local, reversible actions like editing files or running tests.
But for actions that are hard to reverse, affect shared systems beyond your local
environment, or could otherwise be risky or destructive, check with the user
before proceeding.

原则 15:信息安全出口控制

置信度:★★★★★(Claude Code 将数据外泄视为安全事件,使用 “data exfiltration” 术语)

禁止在没有用户明确授权的情况下将内容发布到任何公开服务。对一个服务的授权不延伸到其他服务。

为什么重要:Agent 有能力将用户的代码和数据上传到 GitHub Gist、Pastebin、图表渲染服务等。即使后来删除,内容可能已被缓存或索引。

可复用模板

# 出口控制
- 未经用户对特定端点的明确授权,不向公开服务发送内容
- 用户必须在发布前审查内容的敏感性
- 上传到第三方服务被视为"发布"——内容可能被缓存或索引,即使后来删除
- 对一个服务的授权不延伸到其他服务

五、输出控制(Output Control)

整合自:AP-011 输出通道分离、AP-012 输出极简主义、AP-021 用户可见性设计、AP-022 任务管理外化思考

Agent 的输出不仅是”文本”——它有两个通道(文本和工具调用),需要管理用户可见性,还需要将”思考过程”外化为可追踪的任务列表。

原则 16:输出通道分离

置信度:★★★★★(v2.1.81 的 SendUserMessage 设计进一步强化了这个分离)

文本输出和工具调用是两个独立的通道。文本用于与用户交流,工具用于执行操作。不要混用通道。

为什么重要:如果 Agent 在 Bash 工具中用 echo 输出消息,用户在 CLI 中看到的是混乱的工具输出。如果 Agent 在文本中描述操作但不调用工具,操作不会被执行。v2.1.81 更进一步:有专门的”发送给用户”工具,plain text 被降级为”详情视图”。

可复用模板

# 输出通道规则
- 文本输出 = 与用户交流的唯一通道
- 工具调用 = 执行操作的唯一方式
- 禁止:在工具调用(如 Bash echo)中向用户传递信息
- 禁止:在文本输出中描述打算执行的操作而不使用工具
- 如果有专门的用户消息工具,所有用户可见的回复都必须通过该工具

原则 17:输出极简主义

置信度:★★★★★(双版本一致,v2.1.81 更加强化)

输出应尽可能简洁。默认状态是极简回复,仅在用户要求时才展开。

为什么重要:LLM 天然冗长。在 Agent 场景中(尤其是 CLI 环境),冗长的回复不仅无用还干扰工作流。“minimize output tokens” 还有经济学原因——减少 token 消耗。

怎么做

  • 做完了?说一句”完成”,不要解释你做了什么
  • 用户问问题?直接给答案,不要加铺垫
  • 只在以下情况展开:用户明确要求解释 / 出现错误需要说明 / 有决策需要用户输入

提供极简示例设定锚点:

user: 2 + 2
assistant: 4

user: is 11 a prime number?
assistant: Yes

原则 18:用户可见性设计

置信度:★★★★★(v2.1.81 有完整的 ack → work → result 三段式设计)

用户应该看到有意义的进展信息,而非过程噪音。进展更新应出现在”自然里程碑”处。

为什么重要:Agent 在后台工作时,用户不知道进展如何——盯着转圈焦虑。但事事汇报又产生噪音。解决方案是三段式

  1. 确认收到(ack):一行即可,消除等待焦虑——“On it — checking the test output”
  2. 关键检查点:仅在有信息价值时更新(决策、意外发现、阶段完成)
  3. 最终结果:简洁呈现

跳过:纯过程描述(“正在运行测试…”、“正在读取文件…”)

证据(Claude Code v2.1.81):

If you can answer right away, send the answer. If you need to go look — run a
command, read files, check something — ack first in one line ("On it — checking
the test output"), then work, then send the result.

For longer work: ack → work → result. Between those, send a checkpoint when
something useful happened — a decision you made, a surprise you hit, a phase
boundary. Skip the filler ("running tests...") — a checkpoint earns its place
by carrying information.

原则 19:任务管理外化思考

置信度:★★★★★(Claude Code 用 “VERY frequently” 和 “EXTREMELY helpful” 强调,极少见的强调程度)

在 Agent 场景中,思考过程通过任务管理工具外化为可见的、可追踪的任务列表,替代传统的文本推理。

为什么重要:传统 CoT(“让我想想…”)在 Agent 场景中是噪音——用户不想看推理文本。但完全不”思考”会导致 Agent 遗漏步骤。任务管理工具将”思考”转化为”可追踪的任务列表”——同时解决了规划和可见性的问题

怎么做

  • 规划阶段:创建任务列表 = 分解问题 = “思考”
  • 执行阶段:标记任务完成 = 跟踪进度 = “展示工作”
  • 用户看到的不是推理文本,而是结构化的进度条

证据(Claude Code v2.0.0):

These tools are also EXTREMELY helpful for planning tasks, and for breaking down
larger complex tasks into smaller steps. If you do not use this tool when planning,
you may forget to do important tasks - and that is unacceptable.

六、子代理架构(Sub-agent Architecture)

整合自:AP-013 子代理上下文隔离策略、AP-014 不委托理解、AP-026 团队协作架构

当单个 Agent 的上下文窗口或能力不够时,需要拆分为多个协作的 Agent。子代理架构是 Agent PE 中最复杂的维度。

原则 20:子代理上下文隔离

置信度:★★★★★(Claude Code 有 fork 和 subagent_type 两种完整模式)

子代理有两种模式——继承上下文(fork)和独立启动(fresh)。选择模式的标准是:是否需要主 Agent 已有的上下文。

怎么做

模式一:继承上下文(fork)

  • 适用:需要主 Agent 已有知识的任务
  • Prompt 写法:直接下达指令,不重复背景——“agent 已经知道一切”
  • 规则:不要偷看中间结果(“Don’t peek”)、不要预测结果(“Don’t race”)

模式二:独立启动(fresh agent)

  • 适用:需要独立视角或专业能力的任务
  • Prompt 写法:像给刚进入会议室的同事做简报
  • 包含:你试过什么、你排除了什么、为什么这个任务重要

证据(Claude Code v2.1.81):

When you omit `subagent_type` — the agent inherits your full conversation context.
Don't re-explain background — the agent has it.

When you specify `subagent_type` — the agent starts fresh with zero context.
Brief it like a smart colleague who just walked into the room.
Terse, command-style prompts produce shallow, generic work.

原则 21:不委托理解

置信度:★★★★★(Claude Code 明确禁止了 “based on your findings” 类指令)

理解和综合是主 Agent 的职责,不能委托给子代理。给子代理的指令必须证明主 Agent 已经理解了问题。

为什么重要:如果主 Agent 写”根据你的发现,修复 bug”——这意味着主 Agent 没有消化子代理的输出就直接让另一个子代理去执行。信息在传递中不断丢失,最终导致错误的修复。

怎么做

  • 子代理 Prompt 中禁止用语:“based on your findings…”、“implement what you think is best”
  • 子代理 Prompt 中必须包含:具体的文件路径、行号、明确要改什么怎么改
  • 检验标准:Prompt 中的细节是否足以证明主 Agent 已经理解了问题?

原则 22:团队协作架构

置信度:★★★★☆(v2.1.81 新增的高级特性,Team-Task-Message 三位一体)

多 Agent 协作通过 Team(组织结构)、Task(工作分配)、Message(通信)三位一体架构管理。

关键设计

  1. Team = TaskList 的一一对应简化了概念模型
  2. 空闲是正常状态——“Teammates go idle after every turn—this is completely normal”,防止主 Agent 误判
  3. 默认点对点消息——“Broadcasting is expensive. Default to direct messages”
  4. 优雅关闭协议——所有工作完成后才输出最终结果

可复用模板

# 多 Agent 协作规则
1. 组织:Team 定义成员和角色
2. 任务:共享 TaskList,通过 owner 分配
3. 通信:
   - 默认点对点消息(广播代价高)
   - 文本输出 ≠ 消息(必须用消息工具发送)
4. 空闲是正常状态,不是异常
5. 生命周期:创建 → 分配 → 执行 → 优雅关闭

七、上下文管理(Context Management)

整合自:AP-017 上下文压缩与持久化、AP-018 记忆系统分层、AP-023 动态 Prompt 组合架构

Agent 的长会话会耗尽上下文窗口。上下文管理不是”可选优化”,而是 Agent 能否长时间可靠工作的关键。

原则 23:上下文压缩与持久化

置信度:★★★★★(Claude Code 有 9 个维度的压缩模板 + <analysis> 预分析机制)

通过结构化的总结协议将长会话压缩为可恢复的摘要。摘要的设计目标是让一个”失忆”的新实例能无缝接续。

怎么做

压缩前分析(<analysis> 标签):

  • 按时间线回顾每个关键节点
  • 标注用户反馈和纠正
  • 记录失败和绕过方式

压缩后摘要必须包含:

  1. 任务概述 + 成功标准
  2. 当前状态 + 已完成/未完成的文件
  3. 关键发现(含失败经验——避免重复踩坑)
  4. 下一步 + 优先级
  5. 需要保留的上下文(用户偏好、承诺

证据(Claude Code v2.1.81):

Write a continuation summary that will allow you (or another instance of yourself)
to resume work efficiently in a future context window where the conversation
history will be replaced with this summary.

原则 24:记忆系统分层

置信度:★★★★☆(v2.1.81 新增的记忆架构,含覆盖规则和道德约束)

记忆分为多个层次,不同层次有不同的持久性和覆盖规则。

层级(从持久到临时):

  1. 项目记忆(CLAUDE.md):共享、持久、版本控制
  2. 团队记忆:共享、持久、可覆盖个人
  3. 个人记忆:私有、跨会话
  4. 会话记忆:压缩摘要、单会话

关键设计

  • 记录成功和失败(避免纠偏偏差——只记住错误会导致 Agent 过度保守)
  • 个人记忆不能与团队记忆矛盾
  • 避免写负面判断性的记忆

证据(Claude Code v2.1.81):

Record from failure AND success: if you only save corrections, you will avoid past
mistakes but drift away from approaches the user has already validated.

原则 25:动态 Prompt 组合架构

置信度:★★★★★(v2.1.81 揭示了 110+ 独立片段的动态组合架构)

将系统提示词拆分为独立片段,根据环境和配置条件动态组合。这是大规模 Agent 系统的架构级设计模式。

为什么重要:Agent 不是一个静态的 prompt。它需要根据运行时状态(操作系统、权限、模型能力、是否是子代理)动态组合不同的 prompt 片段。Claude Code 的系统提示词不是 1 个文件,而是 110+ 个独立字符串的条件组合。

片段类型

  1. 主系统提示词片段——核心行为定义
  2. 系统提醒(System Reminders)——运行时动态注入的上下文
  3. 工具描述——每个工具的描述是独立片段
  4. Agent 提示词——子代理的专用提示词
  5. Skills 提示词——可扩展的功能模块
  6. Data 模板——嵌入数据的模板

可复用模板

# 动态 Prompt 组合设计
1. 将 prompt 拆为独立片段(按功能/主题)
2. 每个片段标注注入条件:
   - 环境条件(OS、权限、模型能力)
   - 功能开关(feature flags)
   - 上下文条件(是否是子代理、当前模式)
3. System Reminder 机制:运行时注入临时信息(token 用量、状态更新)
4. 条件组合示例:
   ${IS_FEATURE_ENABLED("feature_x") ? "[片段A]" : "[片段B]"}
   ${!IS_SUBAGENT ? "[主Agent片段]" : ""}

八、迭代与错误恢复(Iteration & Recovery)

整合自:AP-004 障碍非捷径原则、AP-019 被拒绝后的调整策略、AP-020 阻塞时的替代方案思维

Agent 会遇到错误、阻塞和拒绝。它的恢复策略直接决定了用户体验和任务成功率。

原则 26:障碍非捷径原则

置信度:★★★★★(Claude Code 明确列出了多个被禁止的”捷径”)

遇到障碍时,诊断根因优先于绕过障碍。不要用破坏性操作作为消除障碍的”捷径”。

为什么重要:Agent 有一个强烈的倾向——遇到错误时,选择”让错误消失”而非”理解为什么出错”。比如遇到合并冲突就丢弃变更、遇到锁文件就删除它、遇到 hook 失败就用 --no-verify 跳过。但 Agent 不了解全局上下文:它看到的”异常”可能是用户有意为之

可复用模板

# 障碍处理协议
遇到障碍时:
1. 诊断原因 → 不要直接删除/绕过
2. 发现异常状态 → 调查而非覆盖(可能是用户有意为之)
3. 特别禁止以下"捷径":
   - 用 --no-verify 跳过检查
   - 删除锁文件
   - 丢弃合并冲突中的变更
   - 用 force 选项覆盖

原则 27:被拒绝后的调整策略

置信度:★★★★★(v2.1.81 增加了”合理替代 vs 恶意绕过”的区分)

如果用户拒绝了工具调用,不要重试同一操作。思考被拒绝的原因,调整方案。

关键区分:可以用合理的替代方式达成目标(如换一个工具),但不可以绕过拒绝的意图(如用测试工具执行非测试操作)。

可复用模板

# 拒绝恢复协议
当操作被拒绝时:
1. 不要重试相同操作
2. 推理被拒绝的原因
3. 可以用合理的替代方式达成目标
4. 不可以用绕过意图的方式达成目标
5. 如果不理解原因,询问用户

原则 28:阻塞时的替代方案思维

置信度:★★★★★(Claude Code 还列出了 sleep 相关的具体反模式)

如果当前方法被阻塞,不要暴力重试。诊断根因、考虑替代方案、或咨询用户。

特别禁止

  • sleep + 重试循环(诊断根因而非轮询)
  • 命令间不必要的 sleep(直接运行)
  • 轮询后台任务(等待通知)

证据(Claude Code v2.0.0):

Do not retry failing commands in a sleep loop — diagnose the root cause.
Do not sleep between commands that can run immediately — just run them.

九、模式切换(Mode Switching)

整合自:AP-015 模式切换机制

原则 29:显式模式切换机制

置信度:★★★★★(Claude Code 有完整的 Plan/Auto 模式设计 + 5 阶段 Plan 工作流)

通过显式的模式定义,在不同模式下注入完全不同的行为约束。模式之间有明确的切换工具和切换规则。

为什么重要:同一个 Agent 在”规划模式”和”执行模式”下需要完全不同的行为。Plan 模式下绝对不能修改文件(只读),Auto 模式下应该主动行动不要频繁询问。如果没有显式的模式切换,Agent 会在两种行为之间随机摇摆。

每种模式定义三件事

  1. 权限边界:什么可以做 / 什么不能做
  2. 默认行为:遇到模糊情况时的默认选择
  3. 退出条件:何时/如何切换到其他模式

关键设计:模式的权限约束高于其他所有指令——“This supercedes any other instructions you have received”

可复用模板

# 模式定义

## Plan 模式(只读)
权限:只读操作,不得修改任何文件或执行写操作
默认行为:分析、提问、规划
退出:通过 ExitPlanMode 工具切换
优先级:此约束覆盖所有其他指令

## Execute 模式(自主执行)
权限:完整操作权限
默认行为:立即执行,做合理假设而非提问,行动优先于规划
退出:任务完成或遇到无法解决的阻塞
约束:不得发布到公共服务

证据(Claude Code Plan 模式):

Plan mode is active. The user indicated that they do not want you to execute yet --
you MUST NOT make any edits, run any non-readonly tools, or otherwise make any
changes to the system. This supercedes any other instructions you have received.

十、自我感知(Self-awareness)

整合自:AP-016 自我感知上下文注入

原则 30:自我感知上下文注入

置信度:★★★★★(Claude Code 通过 <env> 标签和 gitStatus 注入运行环境信息)

通过结构化标签注入运行环境信息,让 Agent 了解自身的能力边界和运行条件。

为什么重要:Agent 需要知道自己运行在什么操作系统上(不要在 Linux 上用 macOS 命令)、知识截止到什么时候(需要搜索时才搜索)、当前仓库是什么状态(避免基于过时假设操作)。

必须注入的信息

  • 操作系统和版本
  • 工作目录
  • 当前日期和知识截止日期
  • 模型版本和能力
  • 可用工具列表
  • 权限级别

关键设计:明确标注哪些信息是快照(不会实时更新)。

可复用模板

<env>
操作系统:[platform]
工作目录:[cwd]
当前日期:[date]
模型版本:[model]
知识截止日期:[cutoff]
可用工具:[tools_summary]
权限级别:[permissions]
</env>

注意:以上环境信息是会话开始时的快照,不会实时更新。

证据(Claude Code):

<env>
Working directory: /tmp/claude-history-1759164907215-dnsko8
Is directory a git repo: No
Platform: linux
Today's date: 2025-09-29
</env>
You are powered by the model named Sonnet 4.5.
Assistant knowledge cutoff is January 2025.

附录:现有框架修正建议

基于 Agent PE 的证据,以下 6 条现有原则需要修正或扩展:

1. P021 — 正面指令优于否定约束

修正:增加适用条件——“默认推荐正面指令;但安全约束、边界定义、破坏性操作限制等场景,否定指令(NEVER/Do not)更直接有效。”

依据:Claude Code 使用了 25+ 条否定指令(NEVER × 15+,Do not × 10+),每条都映射到真实失败场景。详见本文原则 7。

2. P014 — 长 prompt 末尾重申任务

修正:扩展为”关键指令散布重复”——不仅末尾重申,还应在 prompt 中间的相关段落处重复关键约束。

依据:Claude Code 的安全约束在 L36-37 出现,L187 逐字重复;文件操作偏好在系统提示、Bash 描述、每个专用工具描述中分别重复。详见本文原则 8。

3. P042 — 明确拼出思考步骤

修正:增加说明——“在 Agent 场景中,思考步骤可通过任务管理工具(TodoWrite / TaskCreate)外化为可见的任务列表,而非要求模型输出推理文本。”

依据:Claude Code 不使用传统 CoT,而是通过 TodoWrite 工具外化思考过程。详见本文原则 19。

4. P054 — 工具描述本身就是 PE

修正:补充两个子维度——1) 工具间偏好层级的定义;2) 多工具协作 SOP。当前 P054 只覆盖单个工具描述,缺少工具生态层面的指导。

依据:Claude Code 不仅为每个工具写了精确描述,还定义了工具间的优先级和多工具工作流 SOP。详见本文原则 3、5。

5. P059 — Agent 更新应简短

修正:扩展为包含”用户可见性设计”——不仅是”简短”的问题,还包括 ack → work → result 三段式、哪些信息应该对用户可见、以什么形式可见。

依据:Claude Code v2.1.81 有完整的可见性设计策略。详见本文原则 18。

6. P036 — 示例要相关、多样、结构化

修正:增加子原则——正反对比示例。为容易误用的行为同时提供正例和反例,示例数量与误用风险成正比。

依据:Claude Code 的 TodoWrite 有 4 正 4 反共 8 个示例,Glob 几乎没有示例。详见本文原则 4。

调研发现

Prompt Engineering 知识架构

来源:42 个一手数据文件 + Claude Code 系统提示词深度分析,303 + 30 条原始编码,87 条核心原则 方法论:深度知识体系构建(Grounded Knowledge Architecture) 一致性检验:通过(发现 2 处需补充说明,已在正文中解决) 收敛自:evidence/phase2-3-merged-analysis.md


一致性声明

Phase 4 检验结果

4.1 两两对比检验(重点对 5 组):

对比对结论说明
P020(直接要求)vs P024(模糊时澄清/覆盖)一致P020 解决”已知想要什么”的场景——直接说出来;P024 解决”指令本身不清晰”的场景——先消歧再执行。二者是顺序关系:先判断是否模糊(P024),若不模糊则直接要求(P020)。
P021(做什么 > 不做什么)vs P023(约束范围)一致,互补P021 指导指令的表述方式(正面表达优于否定);P023 指导指令的覆盖范围(显式划定边界)。一个管”怎么说”,一个管”说多宽”,不冲突。
P029(通用指令优于步骤)vs P042(明确拼出思考步骤)条件一致已在关系网络中标注为条件分支:推理模型用 P029,基础模型用 P042。补充说明:即使使用 P029,也可以用 P042 的 XML 标签隔离思考区域——二者可组合为”给出高层目标 + 用标签隔离思考区域,但不规定具体步骤”。
P014(末尾重申任务)vs P009(数据顶部、查询底部)一致P009 说的是数据/文档放顶部、查询放底部;P014 说的是在长 prompt 末尾重申任务。两条指向同一个结论:任务指令应靠近 prompt 末尾。P009 管数据位置,P014 管任务重申,完全兼容。
P053(降温减幻觉)vs M002 裁决自洽P053 的通用原则”低温度 = 更确定性”成立,M002 裁决正确标注了 Gemini 3 是例外。P053 适用条件中已标注”另见矛盾 M002”,读者可追溯。

补充发现的 2 处需说明:

  1. P006(模型对模式敏感)与 P031(角色提示)的关系:P006 说你的表达模式会传染给模型,P031 说角色提示改变风格。二者一致且互补——角色提示正是利用”模式传染”机制来引导输出风格。在下方架构中已标注为互补关系。

  2. P015(高频内容放开头利用缓存)与 P014(末尾重申任务)的潜在张力:P015 建议把不变的内容放开头以命中 prompt cache;P014 建议在末尾重申任务。二者实际不冲突——P015 管的是”系统提示的稳定部分”放最前面,P014 管的是”用户的即时任务”在末尾重申。一个是 cache 优化策略,一个是注意力引导策略,层面不同。

4.2 矛盾裁决审核:6 处矛盾(M001-M006)裁决均合理,详见附录。

4.3 结论:72 条原则体系内部一致,无未解决的逻辑冲突。所有表面矛盾均为条件分支或平台差异,已通过适用条件标注消歧。


Tier 1: 通用原则(Universal Principles)

所有 LLM、所有场景都适用的基石原则。无论你用什么模型写什么 prompt,这些都成立。

P001 — LLM 是概率预测引擎

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用,是所有 PE 的理论基础

原则:LLM 本质上是概率预测引擎,不是知识库。没有 prompt 锚定时模型会随机采样训练数据。

为什么有效:理解这一本质才能明白为什么 prompt 的措辞、结构、示例都会影响输出——它们改变的是模型采样的概率分布。

怎么做:设计 prompt 时想的不是”问模型一个问题”,而是”给模型足够的上下文让它朝正确方向采样”。

证据:C027, C028, C029, A036

相关原则:→ P006(模式敏感是概率本质的直接推论)→ P041(CoT 通过改变 token 序列条件概率生效)


P002 — PE 是迭代的科学过程

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用

原则:Prompt Engineering 不是”写一次就好”,而是 Plan → Draft → Evaluate → Refine → Deploy 的完整生命周期。

为什么有效:第一版 prompt 几乎不可能完美。系统性迭代比灵感式修改更高效。

怎么做:每次修改只变一个因素,用固定测试集验证效果,记录每个版本的表现。

证据:A056, A067, A109, B003, B048

相关原则:前置依赖 P070(先有评估标准才能迭代);互补 P071(单变量迭代方法论)


P006 — 模型对模式敏感

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用

原则:你犯错它犯错,你聪明它聪明。prompt 中的拼写、语法、格式质量会直接传染给输出。

为什么有效:P001 的直接推论——模型按条件概率采样,你提供的模式就是条件。

怎么做:prompt 中保持专业的拼写和语法;如果希望输出用正式语言,prompt 就用正式语言。

证据:A018, A019, A083, C052

相关原则:依赖 P001;互补 P031(角色提示利用模式传染机制)


P019 — 像对新员工一样清晰

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用

原则:模型除了你告诉的内容之外没有任何上下文——像对一个聪明但完全不了解背景的新员工解释任务。

为什么有效:消除”模型应该知道”的假设,迫使你把隐含的背景知识显式化。

怎么做:写完 prompt 后自问:如果一个没有上下文的人读到这段话,能否准确完成任务?

证据:A005, A006, C032

相关原则:→ P020(直接要求)→ P022(解释原因)


P020 — 直接要求你想要的

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用

原则:想让它做选择就明确说,想跳过前言就直接说,想要 JSON 就直接说。不要暗示,直接要求。

为什么有效:模型擅长遵从明确指令,不擅长猜测言外之意。

怎么做:把期望的行为写成祈使句。“列出 5 个方案并推荐最优”比”能不能帮我想想有什么方案”好得多。

证据:A007, A008, A009, A069, A086, B052

相关原则:前置依赖 P019;互补 P022(解释为什么要这样做)


P021 — 正面指令优于否定约束

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用(默认推荐);但安全约束、边界定义、破坏性操作限制等场景,否定指令(NEVER/Do not)更直接有效——详见 P079

原则:告诉模型”做什么”比”不做什么”更有效。避免过于宽泛的否定如”do not infer”。

为什么有效:否定指令定义的是无限大的禁止空间,模型仍不知道应该做什么。正面指令直接指向目标。

怎么做:把”不要编造数据”改为”仅使用提供的数据,缺失字段标记为 null”。

证据:A082, B063, C039

相关原则:互补 P023(约束范围)——一个管表述方式,一个管覆盖范围;Agent 场景修正见 P079(否定约束的精确使用)——Anthropic 在 Claude Code 中使用了 25+ 条否定指令,证明安全/边界场景下否定指令更有效


P022 — 解释指令背后的原因

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用

原则:解释”为什么”能让模型更好地泛化到边缘情况,比单纯禁止更有效。

为什么有效:原因提供了推理的锚点——遇到指令未覆盖的情况时,模型可以从原因推断应有的行为。

怎么做:在关键指令后加一句原因。“回答限制在 200 字以内,因为这会显示在移动端通知中。”

证据:A071, A072, B063

相关原则:互补 P020


P026 — 直奔主题

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用

原则:不要复述用户请求;跳过填充词、前言和不必要的过渡,直接给出实质内容。

为什么有效:减少无意义 token 消耗,提高信息密度,让输出更实用。

怎么做:在 prompt 中加入”Skip preamble. Start with the answer directly.”

证据:B018, B052, A127

相关原则:互补 P025(长度/格式约束)


P027 — 定义退出机制

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用,减少幻觉的关键手段

原则:告诉模型可以说”不知道”、可以拒绝、可以保持原答案不修改。

为什么有效:没有退出机制时,模型被迫在所有情况下生成答案,即使它实际上不确定——这是幻觉的主要来源之一。

怎么做:加入 “If you cannot determine the answer from the provided context, say ‘I don’t have enough information to answer this.’”

证据:A037, A060, A115, B054, A121

相关原则:互补 P049(先引用再回答)→ 系统性减少幻觉;互补 P051(不确定时避免编造)


P035 — Few-shot 示例是最有效的 PE 工具

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用(受 token 预算约束)

原则:示例既能得到正确答案,又能得到正确格式。示例比冗长的文字描述更有效。

为什么有效:示例直接展示了期望的输入-输出映射,消除了文字描述的歧义。

怎么做:用 <example> 标签包裹 2-5 个示例,涵盖典型和边缘情况。

证据:A032, A033, A034, A046, A048, B010, C067

相关原则:→ P036(示例质量要求)→ P037(3-5 个最佳)→ P038(格式比内容重要)→ P039(展示思维链)→ P040(用困难用例)


P041 — 给模型”思考时间”(Chain of Thought)

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:复杂推理/数学/逻辑任务;简单提取/分类任务无需

原则:让模型展示推理过程能显著提升复杂任务的准确性。

为什么有效:显式输出推理步骤改变了 token 序列的条件概率——每一步正确的推理都为下一步提供更好的上下文。

怎么做:简单任务用 “Think step by step”(P044);复杂任务明确拼出步骤 + 用 <thinking> 标签隔离(P042)。

证据:A026, A027, A030, C055, C071

相关原则:依赖 P001;→ P042, P044, P045, P046(特化技术);互补 P039(示例中展示思维链)


P051 — 不确定时避免编造

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用

原则:用”Based on the provided context…”替代绝对断言;缺失字段设为 null 而非猜测。

为什么有效:与 P027(退出机制)协同——模型知道有”不知道”的出口时,更倾向于诚实回答。

怎么做:指令中加入 “If a field is not present in the source, set it to null. Do not guess or infer values.”

证据:B026, B027, B043, B044

相关原则:互补 P027, P049, P050


P061 — 上下文是有限资源

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用

原则:找到”最大化预期结果概率的最小高信号 token 集合”。

为什么有效:无关信息会稀释模型的注意力,增加成本和延迟,甚至引入噪音。

怎么做:每加一段内容都问:这对完成任务是否必要?如果删掉会影响结果吗?

证据:A142, A147, C034

相关原则:上位概念 P004;→ P062(截断策略)→ P065(JIT 上下文)


P070 — 先定义成功标准

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用,尤其是生产环境

原则:先定义成功标准和评估方法,再开始写 prompt。没有评估体系的 prompt 优化是盲人摸象。

为什么有效:没有标准就无法判断修改是改进还是退步。

怎么做:准备 10-20 个测试用例,定义预期输出,建立自动化评估流水线。

证据:A067, B003, B048

相关原则:→ P002(迭代循环的前提);互补 P071


Tier 2: 核心技巧(Core Techniques)

经过充分验证的实操技巧,按任务类型组织。

2A. Prompt 结构与组织

P007 — 系统提示词是行为锚点

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:所有 API 场景

原则:系统提示在 user turn 之前提供上下文、指令和指南,精心编写能显著提升表现。

为什么有效:系统提示设定了整个对话的基调和行为边界,模型会持续参考它。

怎么做:始终使用系统提示,哪怕只是一句角色定义 + 核心约束。

证据:A001, A002, B006, C031

相关原则:→ P008(推荐结构)


P008 — 推荐的系统提示结构

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:中等以上复杂度的 prompt

原则:Identity/角色 → Instructions/规则 → Examples/示例 → Context/数据。复杂 prompt 可包含多达 10 个标准元素。

为什么有效:结构化的信息组织让模型更容易解析和遵循,减少遗漏。

怎么做:按 Identity → Instructions → Examples → Context 顺序组织;用 XML 标签或 Markdown 标题分隔各部分。

证据:A041, A043-A054, B006, C001, C004-C009

相关原则:上位概念,包含 P007, P009, P017


P009 — 数据顶部,查询底部

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:含长文档的场景

原则:长文档/数据放在 prompt 顶部,查询/指令放在底部——查询在末尾可提升响应质量达 30%。

为什么有效:模型对最近处理的 token(prompt 末尾)注意力最强(recency bias)。

怎么做[系统指令] → [参考文档/数据] → [用户查询]

证据:A078, A079, A050, A051, A113, B068(三方共识,见 M005 裁决)

相关原则:与 P014(末尾重申)一致;与 P015(缓存优化)兼容


P010 — 用 XML 标签分隔内容边界

置信度:★★★★★ (95%+) 适用范围:通用(Claude 专门训练过 XML 识别,但所有模型都受益) 适用条件:始终适用

原则:将变量数据与指令分离,用一致的描述性标签名,支持嵌套反映层级。

为什么有效:明确的边界让模型精确区分”这是指令”和”这是数据”,减少混淆。

怎么做<instructions>...</instructions> <context>...</context> <user_query>...</user_query>

证据:A015, A016, A021, A049, A076, A077, B008, C051

相关原则:互补 P011(XML 管边界,Markdown 管层级)


P011 — 用 Markdown 传达层级

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用

原则:用 Markdown 标题和列表传达层级关系;编号列表用于顺序和完整性重要时。

怎么做# 用于大分区,- 用于并列项,1. 2. 3. 用于顺序步骤。

证据:A070, B007, C047

相关原则:互补 P010


P014 — 关键指令散布重复

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:长 prompt(>1000 tokens);Agent 场景尤其重要

原则:在长 prompt 末尾重申即时任务,比放在开头效果更好。在 Agent 场景(超长 prompt)中,应进一步采用”散布重复”策略:关键约束不仅在首尾出现,还应在 prompt 中间的相关段落处(如工具描述、SOP 步骤中)重复出现,确保无论模型注意到哪段文本,关键约束都在近距离可见。

为什么有效:利用 recency bias——模型对 prompt 末尾的注意力最强。在超长上下文中,LLM 注意力不均匀,散布重复确保关键约束在任何相关位置都”可见”。

怎么做:短 prompt→末尾重申即可。长 prompt/Agent 场景→识别关键约束→系统提示开头完整声明→每个相关工具描述中重复→相关 SOP 步骤中引用→末尾简短重申。

证据:A050, A057, B022;AP-009(Claude Code 安全约束在 L36 和 L187 逐字重复;文件操作偏好在 4+ 位置出现)

相关原则:与 P009 一致(任务靠近末尾);Agent 场景详见 P080


P017 — 明确指定输出格式

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:需要程序化消费输出时必须

原则:语言、语法、结构化格式(JSON/XML/Markdown)和样式偏好,放在 prompt 末尾。

怎么做:提供输出 schema 示例;对 JSON 输出指定字段名和类型。

证据:A022, A053, A107, B041, B051, C019, C025, C054

相关原则:P008 的组成部分;互补 P025(长度约束)


2B. 指令编写

P023 — 明确约束范围

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:编码和生产环境尤其重要

原则:只做直接要求的,不加额外功能和”改进”。明确划定模型应做和不应做的边界。

为什么有效:模型倾向于”过度帮忙”,没有边界约束时会添加不必要的功能或信息。

怎么做:加入 “Only perform the specific task described. Do not add features, improvements, or information beyond what is requested.”

证据:B019, B035, A130, A131, A132

相关原则:互补 P021


P030 — 不同模型需要不同策略

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:模型选择/迁移时

原则:推理模型给高层目标,基础模型给精确指令。不能用同一个 prompt 套所有模型。

为什么有效:模型架构和训练方式不同,指令遵从能力和推理能力差异巨大。

怎么做:迁移 prompt 时先不改内容只换模型,观察差异后再针对性调整。

证据:B001, A089, A090, B046

相关原则:互补 P071(迁移方法论);条件分支:推理模型 → P029,基础模型 → P042


2C. 角色与人格

P031 — 角色提示改变风格和深度

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用

原则:角色提示改变风格、语气和回答深度,可以放在系统提示或 user turn 中。

为什么有效:角色设定激活了模型训练数据中对应领域的知识分布(P001 → P006 的应用)。

怎么做:在系统提示开头用 “You are [角色]” 设定;复杂角色加入世界观、动机、价值体系(P032)。

证据:A010, A011, A012, A013, C003

相关原则:→ P032(人格画像设计)→ P034(显式列举能力和局限)


2D. 示例与 Few-shot

P036 — 示例要相关、多样、结构化

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:始终适用

原则:示例要展示多样化的输入范围,覆盖边缘案例,用 <example> 标签包裹。对于容易误用的行为,应同时提供正面示例和反面示例(正反对比),每个示例附 <reasoning> 标签解释为什么。示例数量应与误用风险成正比——高误用风险的工具/行为需要更多正反对比示例。

怎么做:确保示例覆盖:典型情况、边缘情况、预期拒绝情况。高风险行为增加正反对比示例(good-example / bad-example + When to Use / When NOT to Use)。

证据:A073, A074, A047, A106, A116, B010, C017;AP-006(Claude Code TodoWrite 4正4反共8示例 vs Glob 0示例——误用风险决定示例数量)

相关原则:依赖 P035;Agent 场景详见 P077(描述详细度与误用风险成正比)


P039 — 在示例中展示思维链

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:需要推理的任务

原则:在 few-shot 示例中展示推理过程/内心独白,让模型学会如何思考。

怎么做:示例中加入 <thinking><rationale> 部分,展示从输入到输出的推理链。

证据:C018, A093, A047

相关原则:互补 P035 + P041


2E. 推理技术

P042 — 明确拼出思考步骤

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:需要精确控制推理过程时;基础模型优先使用;Agent 场景中思考可通过任务管理工具外化

原则:明确拼出思考步骤比笼统说 “think step by step” 更有效;用 XML 标签(<thinking> <scratchpad>)隔离思考区域。在 Agent 场景中,思考步骤可通过 TodoWrite / TaskCreate 等任务管理工具外化为可见的任务列表,替代传统的文本推理——用户看到的不是推理文本,而是结构化的进度条。

为什么有效:具体步骤消除了模型自行决定推理路径的不确定性。Agent 场景中,外化为任务列表同时解决了规划(防止遗漏步骤)和可见性(用户看到进展)两个问题。

怎么做:文本生成场景→Step 1: Identify... Step 2: Analyze... 配合 <thinking> 标签隔离。Agent 场景→通过任务管理工具创建任务列表=分解问题=“思考”;标记完成=跟踪进度=“展示工作”。

证据:A030, A031, A114, C057;AP-022(Claude Code 用 TodoWrite 替代 CoT)

相关原则:互补 P041;条件分支见 P029(推理模型可能不需要具体步骤);Agent 场景外化见 P083(用户可见性三段式)


P044 — Zero-shot CoT

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:大参数模型

原则:仅需 “Let’s think step-by-step” 即可触发推理能力。

怎么做:在查询末尾加 “Let’s think step by step.” 或 “Think through this carefully.”

证据:C056, C072, C070

相关原则:依赖 P041;简化版的 P042


2F. 减少幻觉

P049 — 先提取引用再回答

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:长文档/多文档场景

原则:让模型先提取相关引用,再基于引用生成答案——显著减少长文档场景下的幻觉。

为什么有效:强制模型”有据可依”,阻断”凭记忆编造”的路径。

怎么做Step 1: Extract all relevant quotes from the document. Step 2: Based only on these quotes, answer the question.

证据:A038, A039, A081, B024, C053

相关原则:互补 P027(退出机制)→ 系统性减少幻觉


P050 — 断言锚定到具体章节

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:事实密集型任务

原则:引用关键细节(日期、阈值、条款编号),而非泛泛而谈。

怎么做:要求模型在每个断言后标注来源章节或段落编号。

证据:B023, B024

相关原则:互补 P049


2G. 工具与 Agent

P054 — 工具描述本身就是 PE

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:所有工具使用场景

原则:简洁 1-2 句说明工具做什么和何时使用,描述必须精确。在多工具 Agent 中,还需定义工具间偏好层级和多工具协作 SOP

为什么有效:模型根据工具描述决定是否调用——描述不准确直接导致工具误用或漏用。多工具场景中,缺少偏好层级导致随机选择工具,缺少 SOP 导致工具协作混乱。

怎么做:每个工具的 description 包含:功能(做什么)、触发条件(何时用)、不适用场景(何时不用)。多工具 Agent 还需:1) 定义工具间偏好层级(P076);2) 为关键工作流编写多工具协作 SOP(P078)。

证据:A139, B036, A065;AP-005, AP-006, AP-007(Claude Code 的工具偏好和 SOP 设计)

相关原则:互补 P058(抽象层级);Agent 场景扩展见 P076(工具偏好层级)、P077(描述详细度与误用风险成正比)、P078(多工具协作 SOP)


P055 — 鼓励并行工具调用

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:多工具场景

原则:鼓励并行工具调用以降低延迟。

怎么做:在系统提示中加入 “When multiple independent tool calls are needed, make them in parallel.”

证据:A091, B037


P056 — 需要新鲜数据时优先用工具

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:agent 场景

原则:需要新鲜或用户特定数据时优先使用工具而非内部知识。

证据:B039, C040, C041


2H. 模板化与复用

P012 — 结构化模板比散乱技巧更高效

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:生产环境/重复任务

原则:像代码模块一样设计 prompt,一次创建、无限适配。

证据:A020, C001, C002, C021

相关原则:互补 P013


P013 — Prompt 模板化

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:生产环境

原则:固定骨架 + 可替换变量({{variable}}<Variable>),实现重复任务的标准化。

证据:A020, B014, C010

相关原则:互补 P012


2I. 评估与迭代

P071 — 模型迁移时单变量迭代

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:模型升级/迁移

原则:先不改 prompt 只换模型——一次只变一个因素,每次小改动后重跑 eval。

证据:B046, B048, A089

相关原则:互补 P070


Tier 3: 场景策略(Scenario Strategies)

按场景分支的具体指导,标注适用条件。

3A. 上下文管理策略

P004 — 上下文工程 > Prompt 工程

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:agent/长对话场景尤其重要

原则:管理整个上下文状态(token 预算、信息新鲜度、上下文腐烂),而非只写好指令。

为什么有效:prompt 只是上下文的一部分,对话历史、工具返回、外部数据同样影响输出质量。

怎么做:监控 token 使用率;定期清理过时信息;用摘要替代完整历史。

证据:A140, A141, A142, A147

相关原则:上位概念,包含 P061


P062 — 上下文截断策略

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:长对话

原则:滑动窗口、优先保留 bot 回复、LLM 摘要替代历史消息。

怎么做:设定 token 上限;超限时用 LLM 生成前序对话摘要替代原文。

证据:C035, A146

相关原则:依赖 P061


P063 — 动态上下文修改

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:需要外部知识的场景

原则:根据用户意图实时更换隐藏提示中的数据(RAG/语义搜索),这是好体验的关键。

证据:C042, C043, C044, B012, A145

相关原则:互补 P065(JIT 上下文)


P064 — Reminder 机制

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:长多轮对话

原则:强制模型在每次回复前回顾关键设定,对抗长对话中的上下文丢失。

证据:C013, B031


P065 — Just-in-time 上下文

置信度:★★★★☆ (85%+) 适用范围:场景特定 适用条件:agent/工具使用场景

原则:保持轻量级标识符,动态加载相关信息,避免一次性塞入所有上下文。

证据:A145, C042

相关原则:互补 P063


3B. 模糊性处理

P024 — 模糊指令的处理策略

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:按交互模式选择(见 M001 裁决)

原则:遇到模糊指令时选择最简单的合理解释,或主动问澄清问题。

为什么有效:避免模型在歧义上浪费 token 或选择错误的解释。

怎么做

  • 交互式场景(聊天)→ 问 1-3 个精确澄清问题
  • 单次调用场景(API/批处理)→ 覆盖所有合理解释

证据:B020, B025, C012

相关原则:与 P020 是顺序关系——先消歧,再直接要求


3C. 长度与格式控制

P025 — 提供明确的长度/格式约束

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:需要一致性输出时

原则:默认多长、简单问题多长、复杂问题用什么结构——都要明确指定。

怎么做Default: 2-3 sentences. For complex topics: use bullet points, max 200 words.

证据:B015, B016, B017, A118, A126


P018 — Prompt 格式选择

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:根据数据结构选择

原则:Markdown(默认推荐)、JSON、YAML。Markdown 表格适合同类数据,JSON 适合嵌套数据。

怎么做

  • 同类多条数据 → Markdown 表格
  • 嵌套复杂数据 → JSON
  • Token 紧张的嵌套数据 → 关系型 Markdown 表格

证据:C014, C047, C048, C049


3D. 安全约束

P066 — 假设用户可看到所有 prompt 内容

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:所有生产环境

原则:永远不要在 prompt 中放不能让用户看到的信息。

证据:C030, C038


P067 — 约束针对正常用户设计

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:面向公众的应用

原则:假设恶意用户可绕过所有约束;防越狱最佳实践是将最重要约束放在末尾。

证据:C036, C037


P068 — 破坏性操作执行前确认

置信度:★★★★★ (95%+) 适用范围:通用 适用条件:有副作用的操作

原则:用户批准一次不代表所有上下文都批准。

证据:A136, A137


3E. 自检与验证

P028 — 高风险场景做自检

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:法律/财务/合规/医疗场景

原则:重新扫描未声明假设、不实数字、过强措辞。

怎么做:加入 After generating your response, review it for: unverified claims, unsupported numbers, and overly strong assertions.

证据:B028, A094, B026, B027


P048 — 先验证再生成(Split-Step Verification)

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:减少幻觉

原则:先验证信息/能力是否存在,再生成答案。

怎么做Step 1: Check if the requested information exists in the context. Step 2: If yes, generate the answer. If no, state that the information is not available.

证据:B064, A038


P047 — 先列正反论点再判断

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:需要平衡分析的场景

原则:让模型先列出正反论点再作判断,可改善复杂判断质量。

证据:A028, A112


3F. Agent 场景策略

P057 — 写操作后简短重述

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:有副作用的操作

原则:写操作后简短重述改了什么;高影响操作需要验证步骤。

证据:B040, B038


P059 — Agent 更新应简短(含用户可见性设计)

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:agent 场景

原则:只在新阶段或计划变更时发送状态更新(1-2 句),避免叙述常规工具调用过程。更完整的设计是 ack→work→result 三段式:收到任务先一行确认(消除等待焦虑)→执行时仅在有信息价值的检查点更新→最终简洁呈现结果。跳过纯过程描述(“正在运行测试…”)。

证据:B032, B033, B034, A128;AP-021(Claude Code v2.1.81 的用户可见性设计)

相关原则:Agent 场景详见 P083(用户可见性三段式)


P060 — 子代理架构

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:复杂/长对话 agent

原则:专门化代理处理聚焦任务,用干净的上下文窗口,返回压缩摘要。

证据:A138, A146


P016 — 多文档结构化包裹

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:多文档/多源处理

原则<document index="n"> + 唯一 ID,便于引用和追踪。

证据:A080, C053, B045


P015 — 高频内容放开头利用缓存

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:API 生产环境

原则:高频复用内容放在 prompt 开头以利用缓存降低成本和延迟。

证据:B009, A078


P052 — 声明上下文是唯一事实来源

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:与模型训练知识冲突的场景

原则:假设场景中明确声明”提供的上下文是唯一事实来源”。

证据:B067, A123


3G. Agent 架构设计

在 Agent 场景中,60% 的 prompt 工程是工具描述设计,20% 是行为约束,20% 是示例演示。传统”一问一答”的 PE 原则只覆盖了中间那 20%。

来源:Claude Code 完整系统提示词(v2.0.0 + v2.1.81)深度分析,30 个 Agent PE 模式 详细展开 → 3-Agent提示词工程.md

P073 — Agent 主动性光谱校准

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:所有有工具调用能力的 Agent

原则:Agent 被允许主动行动,但仅限于用户已经要求做某事的上下文中。“问”和”做”是两种不同的响应模式,不能混为一谈。

为什么有效:解决 Agent 场景的核心张力——过度主动让用户失控(“我的文件怎么被改了?”),过度被动让 Agent 无用。区分询问意图和执行意图是关键。

怎么做:构建决策树——用户在提问?先回答不行动。用户要求做事?执行并合理跟进。不确定?默认为提问。

证据:AP-001(Claude Code v2.0.0 + v2.1.81 双版本一致)

相关原则:→ P074(授权范围)


P074 — 一次授权不等于全局授权

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:有副作用操作的 Agent

原则:用户对某操作的一次性批准不构成全局授权。授权范围精确匹配被请求的范围。区分一次性口头授权和持久化配置授权。

为什么有效:防止长会话中的”隐式授权蔓延”——用户同意一次 git push,Agent 后续自动 push。

怎么做:一次性授权仅适用于当次请求;持久化配置(如 CLAUDE.md)可跨会话生效;高风险操作在不同上下文中仍需确认。

证据:AP-002(Claude Code v2.0.0),与 P068 互补

相关原则:扩展 P068(破坏性操作确认);→ P075(风险矩阵)


P075 — 可逆性 × 影响范围决策矩阵

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:所有有工具调用能力的 Agent

原则:操作风险由可逆性和影响范围两个正交维度决定。本地+可逆→自由执行;任一维度为高→确认后执行;两个维度都高→谨慎确认并说明风险。

为什么有效:将”安全/危险”的模糊二分法转化为可操作的二维矩阵,同时给出默认许可(编辑文件、运行测试)避免 Agent 过度保守。

怎么做:为每类操作评估可逆性和影响范围,建立四象限决策表。附带 4 类高风险操作的具体列表(破坏性、难逆转、影响他人、信息泄露)。

证据:AP-003(Claude Code v2.0.0)

相关原则:扩展 P068;互补 P074


P076 — 工具偏好层级

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:多工具 Agent

原则:当多个工具都能完成同一任务时,定义明确的偏好层级:专用工具优先于通用工具。在每个相关工具的描述中都重复这一偏好。

为什么有效:没有明确偏好时模型随机选择工具,导致体验不一致和潜在问题。

怎么做:列出功能重叠的工具对→定义优先级→在每个工具描述中散布重复这一偏好→给出偏好理由。

证据:AP-005(Claude Code v2.0.0 + v2.1.81,后者拆为独立注入片段进一步强化)

相关原则:扩展 P054;互补 P077


P077 — 工具描述详细度与误用风险成正比

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:自定义工具设计

原则:工具描述的标准结构为:功能概述→使用场景→不适用场景→用法→示例。详细程度(尤其是正反对比示例数量)应与该工具的误用风险成正比。

为什么有效:高误用风险的工具需要更多正反示例来划清边界;低误用风险的工具只需简短描述,避免占用上下文。

怎么做:评估每个工具的误用风险→低风险:1-2 句说明→中风险:功能+场景+排除→高风险:完整结构+多个正反对比示例+推理标签。

证据:AP-006(Claude Code TodoWrite 8 示例 vs Glob 5 行描述)

相关原则:扩展 P054;互补 P036(正反对比示例)


P078 — 多工具协作 SOP

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:涉及多工具协作的关键工作流

原则:为关键的多工具工作流提供完整 SOP:编号步骤→标注并行机会→标注依赖关系→内联错误恢复策略。

为什么有效:单个工具描述再好也不能解决工具间协作问题。步骤编号确保顺序,并行标注优化效率,错误恢复内联在 SOP 中确保不遗漏。

怎么做:识别关键多工具工作流(高频+高风险)→拆为编号步骤→标注并行/串行→内联错误恢复。

证据:AP-007(Claude Code git commit SOP 和 PR 创建 SOP)

相关原则:新增维度,补充 P054


P079 — 否定约束的精确使用

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:安全约束、边界定义、破坏性操作限制

原则:安全/边界场景下,否定指令(NEVER/Do not)比正面指令更直接有效。但否定指令必须具体到操作级别,每个 NEVER 映射到一个具体的失败场景,并附带例外条件。

为什么有效:“不要 force push” 比 “使用安全的 git 操作” 更难被误解。否定约束的覆盖面有限但边界清晰,适合高风险操作。

怎么做:高风险操作→NEVER+具体操作+例外条件;行为偏好→仍用正面指令;安全边界→NEVER不带例外。

证据:AP-008(Claude Code 15+ NEVER,每条映射真实失败场景)

相关原则:修正 P021(增加适用条件)


P080 — 关键指令散布重复

置信度:★★★★★ (95%+) 适用范围:Agent 场景(长 prompt 尤其适用) 适用条件:prompt 超过 500 行

原则:关键约束应在 prompt 中多个相关位置重复出现——系统提示开头、相关工具描述中、相关 SOP 步骤中、系统提示末尾。确保无论模型注意到哪段文本,关键约束都在近距离可见。

为什么有效:LLM 在超长上下文中注意力不均匀。散布重复比”首尾重申”更有效,它确保模型执行到任何相关段落时都能”看到”关键约束。

怎么做:识别关键约束→在系统提示开头完整声明→每个相关工具描述中重复→相关 SOP 步骤中引用→末尾简短重申。重复方式可以是逐字重复、换角度重述或局部引用。

证据:AP-009(Claude Code 安全约束 L36 和 L187 逐字重复;文件操作偏好在 4+ 位置出现)

相关原则:扩展 P014


P081 — 输出通道分离

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:有工具调用能力的 Agent

原则:文本输出和工具调用是两个独立通道。文本用于与用户交流,工具用于执行操作。禁止在工具调用中向用户传递信息,禁止在文本输出中描述操作而不调用工具。

为什么有效:混用通道导致用户在 CLI 中看到混乱的工具输出,或 Agent 描述了操作但实际未执行。

怎么做:明确定义每个通道的职责;如果有专门的用户消息工具,所有用户可见回复都必须通过该工具。

证据:AP-011(Claude Code v2.0.0 + v2.1.81 SendUserMessage 进一步强化)

相关原则:互补 P082


P082 — 输出极简主义

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:CLI/工具型 Agent

原则:默认极简回复。做完了说”完成”不解释;用户问问题直接给答案不加铺垫;只在用户要求解释、出错需说明、有决策需输入时展开。提供极简锚点示例(“2+2”→“4”)。

为什么有效:CLI 环境中冗长文本是噪音;减少 token 消耗;极端示例设定”最简”锚点,模型在此和”适当详细”之间找平衡。

怎么做:在 prompt 中加入极简示例设定锚点 + 明确列出应该输出什么(决策、状态更新、错误)。

证据:AP-012(Claude Code 双版本一致,v2.1.81 增加了”Focus text output on…”正面清单)

相关原则:扩展 P026;互补 P081


P083 — 用户可见性三段式

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:需要后台执行的 Agent

原则:用户可见性采用 ack→work→result 三段式:1) 确认收到(一行,消除等待焦虑)→ 2) 关键检查点(仅在有信息价值时更新)→ 3) 最终结果(简洁呈现)。跳过纯过程描述。

为什么有效:解决了”盯着转圈焦虑”和”事事汇报噪音”之间的平衡。检查点必须”carrying information”才值得发送。

怎么做:短任务直接给结果;需要时间的任务先 ack 一行→工作→给结果;长任务在 ack 和结果之间加有信息价值的检查点。

证据:AP-021(Claude Code v2.1.81 的 SendUserMessage 进展更新设计)

相关原则:扩展 P059;互补 P082


P084 — 子代理上下文隔离

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:使用子代理的 Agent

原则:子代理有两种模式:继承上下文(fork)和独立启动(fresh)。Fork 模式直接下达指令不重复背景,但禁止偷看中间结果和预测结果。Fresh 模式像给刚进入会议室的同事做简报,包含尝试过什么、排除了什么。

为什么有效:继承上下文避免重复传递信息但需防止上下文窗口污染;独立启动保持干净视角但需要充分的简报。

怎么做:需要主 Agent 已有知识→fork(不重复背景、不偷看、不预测);需要独立视角→fresh(完整简报、描述已知和未知)。

证据:AP-013(Claude Code v2.1.81 fork 和 subagent_type 两种完整模式)

相关原则:扩展 P060;互补 P085


P085 — 不委托理解

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:使用子代理的 Agent

原则:理解和综合是主 Agent 的职责,不能委托给子代理。给子代理的 Prompt 必须包含具体的文件路径、行号、明确的修改内容——证明主 Agent 已经理解了问题。

为什么有效:防止”子代理链条”——A 委托 B,B 委托 C,信息在传递中不断丢失。要求主 Agent 写出细节迫使它先理解再委托。

怎么做:禁止 “based on your findings, …”、“implement what you think is best” 等委托理解的用语。Prompt 中必须有具体的文件、行号、修改内容。

证据:AP-014(Claude Code v2.1.81 明确禁止此模式)

相关原则:互补 P084


P086 — 上下文压缩与持久化

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:长会话 Agent

原则:通过结构化总结协议将长会话压缩为可恢复摘要。摘要必须覆盖 5 个维度:任务概述+成功标准、当前状态+已修改文件、关键发现(含失败经验)、下一步+优先级、需保留的上下文(用户偏好和承诺)。

为什么有效:设计假设是”未来的我可能不记得任何东西”。保留失败经验避免重复踩坑,保留承诺避免因压缩而食言。

怎么做:压缩前用 <analysis> 标签做全面回顾→压缩后按 5 维度输出摘要。目标:让”失忆”的新实例能无缝接续。

证据:AP-017(Claude Code v2.1.81 的 compaction 总结模板)

相关原则:互补 P062(上下文截断)


P087 — 模式切换机制

置信度:★★★★★ (95%+) 适用范围:Agent 场景 适用条件:需要在规划/执行等不同模式间切换的 Agent

原则:通过显式模式定义,在不同模式下注入完全不同的行为约束。每种模式定义三件事:权限边界(什么可做/不可做)、默认行为(模糊时如何选择)、退出条件(如何切换)。模式的权限约束高于其他所有指令。

为什么有效:Plan 模式和 Auto 模式的行为完全相反——Plan 默认不执行,Auto 默认不询问。没有显式模式切换,Agent 会在两种行为间随机摇摆。

怎么做:定义模式枚举→每种模式写明权限/默认行为/退出条件→用显式工具切换模式→模式约束声明为最高优先级(“this supercedes…”)。

证据:AP-015(Claude Code Plan 模式 + Auto 模式 + 5 阶段 Plan 工作流)

相关原则:新增维度


Tier 4: 模型专属(Model-Specific)

特定模型或平台的专属技巧。

P029 — 通用指令优于规定性步骤(推理模型)

置信度:★★★★☆ (85%+) 适用范围:推理模型(o1/o3/Gemini thinking/Claude extended thinking) 适用条件:新一代推理模型;基础模型应使用 P042

原则:“think thoroughly” 往往比手写步骤更好——推理模型的推理能力可能超过人类预设的步骤。

为什么有效:推理模型内部已有强大的思维链机制,过细的步骤限制反而会约束其能力发挥。

怎么做:给高层目标和约束,让模型自行规划推理路径。可配合 P042 的 <thinking> 标签隔离思考区域,但不规定具体步骤。

证据:A092, A095

相关原则:与 P042 是条件分支关系(一致性检验已确认)


P033 — Persona 可能优先于其他指令(Gemini)

置信度:★★★☆☆ (65%+) 适用范围:Gemini 专属 适用条件:需跨模型验证

原则:Persona 会被 Gemini 严肃对待,可能优先于其他指令——需仔细审查避免歧义。

证据:B066

相关原则:参考 P031


P053 — 降低温度减少幻觉

置信度:★★★★☆ (85%+) 适用范围:通用(Gemini 3 例外) 适用条件:需要确定性输出时;Gemini 3 必须保持默认 1.0

原则:temperature 0 最接近确定性输出。但 Gemini 3 的采样架构不同,降低温度会导致循环或退化。

为什么有效:低温度减少随机采样,使输出更确定性。

怎么做:Claude/GPT:降低 temperature 到 0-0.3 获取更确定性输出。Gemini 3:保持默认 1.0,查阅官方文档确认。

证据:A040, B055

相关原则:见矛盾 M002 裁决


P072 — 生产环境锁定模型快照版本

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:生产环境

原则:锁定模型快照版本以保证行为一致性。

怎么做:使用带日期戳的模型 ID(如 gpt-4-0613),而非 gpt-4

证据:B002


Tier 5: 进阶/实验性(Advanced/Experimental)

新兴趋势或置信度较低的信号,有参考价值但需谨慎使用。

P003 — 不是所有问题都适合 PE 解决

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:评估阶段决策

原则:延迟和成本有时换模型更有效;简单任务不需要复杂 prompt。

证据:A068, A103


P005 — PE 是技能组合

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:始终适用

原则:需要混合搭配多种策略,包括安全、工具集成、领域知识注入等全栈能力。

证据:C065, C066


P032 — 像写人格画像而非流程手册

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:复杂角色/长对话场景

原则:赋予世界观、动机、价值体系比列步骤更有效。

证据:C020, A010


P034 — 显式列举能力和局限

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:复杂角色设定

原则:显式列举 Skills 和 Limitations,而非隐含期望模型推断。

证据:C006, C015, C016


P037 — 3-5 个示例最佳

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:取决于 token 预算

原则:建议 3-5 个示例获取最佳效果;更多通常更好。

证据:A074, A048


P038 — Few-shot 的格式比内容重要

置信度:★★★★☆ (85%+) 适用范围:通用(学术发现) 适用条件:理解 few-shot 工作机制时

原则:即使用随机标签,有格式也比没格式好得多;标签空间和输入分布比标签正确性更重要。

为什么有效:few-shot 的核心作用是校准输出格式和任务理解,而非提供知识。

证据:C068, C069


P040 — 用困难用例作为示例

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:有已知边缘案例时

原则:用困难用例训练模型处理边缘情况。

证据:C017, A047


P043 — 思考必须”大声”输出

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:无 extended thinking 的模型

原则:不能要求只输出答案不输出思考过程——思考只有输出时才影响后续 token 概率。

证据:A027, C058


P045 — Self-Consistency(多路径投票)

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:可多次采样的场景

原则:采样多条推理路径,选最一致的答案——适用于算术和常识推理。

怎么做:同一问题采样 5-10 次(temperature > 0),取多数票答案。

证据:C074, C075


P046 — Tree of Thoughts (ToT)

置信度:★★★☆☆ (65%+) 适用范围:通用(学术) 适用条件:复杂探索任务

原则:维护思维树 + 搜索算法(BFS/DFS)进行系统性探索,适用于需要前瞻的复杂任务。

证据:C076, C077, C078, C079


P058 — 工具命令的抽象层级

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:自定义工具设计

原则:太具体不灵活,太底层模型会幻觉;用大量描述和示例对抗幻觉。

证据:C045, C046


P069 — Fine-tuning 安全红线

置信度:★★★★☆ (85%+) 适用范围:通用 适用条件:fine-tuning 场景

原则:永远不要用真实客户数据做微调——模型会记住并泄露。

证据:C061


附录 A:关系网络图

前置依赖

P001 → P006(概率本质 → 模式敏感)
P001 → P041(概率本质 → CoT 有效性)
P007 → P008(系统提示作用 → 推荐结构)
P019 → P020(无上下文假设 → 直接要求)
P035 → P036, P037, P038, P039, P040(few-shot 有效 → 各项最佳实践)
P041 → P044, P045, P046(CoT → 特化推理技术)
P070 → P002(评估标准 → 迭代循环)

互补组合

P010 + P011 = 完整的 prompt 组织(XML 边界 + Markdown 层级)
P020 + P022 = 更好的指令效果(直接要求 + 解释为什么)
P021 + P023 = 精准控制行为(正面指令 + 约束范围)
P027 + P049 = 系统性减少幻觉(退出机制 + 先引用再回答)
P035 + P039 = 教会推理(示例 + 展示思维链)
P041 + P042 = 可控推理(要求思考 + 隔离思考区域)
P054 + P058 = 可靠工具使用(精确描述 + 适中抽象层级)
P012 + P013 = 可规模化 prompt(结构化模板 + 变量化)
P063 + P065 = 高效上下文管理(动态上下文 + JIT 加载)
P070 + P071 = 科学 prompt 优化(评估体系 + 单变量迭代)
P006 + P031 = 风格引导(模式传染 + 角色设定)

# Agent PE 互补组合(Tier 3G)
P073 + P074 = 主动性管理(行动校准 + 授权范围)
P075 + P074 = 安全决策(风险矩阵 + 授权限制)
P076 + P078 = 工具生态(偏好层级 + 协作 SOP)
P077 + P036 = 示例策略(误用风险成正比 + 正反对比)
P081 + P082 = 输出管理(通道分离 + 极简主义)
P084 + P085 = 子代理管理(上下文隔离 + 不委托理解)
P080 + P079 = 约束执行(散布重复 + 精确否定)

上下位关系

P004 ⊃ P061(上下文工程 ⊃ 上下文有限)
P041 ⊃ P044, P045, P046(CoT ⊃ Zero-shot CoT, Self-Consistency, ToT)
P008 ⊃ P007, P009, P017(推荐结构 ⊃ 系统提示, 数据位置, 输出格式)
P035 ⊃ P036, P037, P038, P039, P040(Few-shot ⊃ 各项最佳实践)

条件分支

场景条件适用原则
模型类型推理模型(o1/o3/Claude extended thinking)P029(通用指令优于步骤)
基础模型(GPT-4.1/Claude Sonnet)P042(明确拼出步骤)
任务复杂度简单提取/分类P020(直接要求)
复杂推理/多步逻辑P041 + P042(CoT + 结构化思考)
极复杂探索P046(ToT)
交互模式聊天/对话P024-A(问澄清问题)
API/批处理P024-B(覆盖所有意图)
输出用途程序消费P017(严格格式)+ P025
人类阅读P025(长度约束)+ P026(直奔主题)
上下文长度短对话(<4k tokens)标准 prompt
长对话(>10k tokens)P062 + P064(截断 + Reminder)
Agent 超长会话P060 + P065(子代理 + JIT)
温度设置Claude / GPT低温度减少幻觉(P053)
Gemini 3保持默认 1.0(M002 裁决)

附录 B:矛盾裁决记录

M001:模糊指令——澄清还是覆盖?

矛盾:Claude/Anthropic 建议主动问澄清问题(B025, A037);GPT-5.2 指南建议覆盖所有可能意图(B050)。

裁决:条件消歧。交互式场景 → 澄清;单次调用场景 → 覆盖。GPT-5.2 指南明确标注这是”深度研究”场景下的建议。

一致性审核:裁决合理,与 P020(直接要求)一致——P020 处理”已知想要什么”,P024 处理”指令不清晰”,是顺序关系。


M002:温度——降低 vs 保持 1.0

矛盾:Anthropic/OpenAI 建议降低温度减少幻觉(A040);Gemini 3 必须保持默认 1.0,降低会退化(B055)。

裁决:模型专属差异。通用原则”低温度 = 更确定性”成立(P053),Gemini 3 是明确例外。

一致性审核:裁决合理且自洽。P053 适用条件中已标注例外。


M003:关键指令位置——开头还是末尾?

矛盾:Anthropic 习惯在开头用 XML 标签强调(A043, A078);Gemini/Brex 建议关键约束放末尾(B065, C037)。

裁决:两种策略组合——约束在开头完整声明,在末尾简短重申。P009 + P014 组合覆盖。

一致性审核:裁决充分。三方对”查询放末尾”有共识;分歧仅在约束位置,组合策略是最优解。


M004:消息角色层级——显式 vs 隐式

矛盾:OpenAI 区分 developer > user > assistant 优先级(B004);Claude/Gemini 无显式层级。

裁决:平台差异,概念相通。P007 只保留”系统提示优先于用户输入”的通用原则。

一致性审核:裁决合理,避免了平台 API 细节侵入通用原则。


M005:数据与问题顺序——数据在前还是在后?

矛盾:表面矛盾——Anthropic 和 Gemini 实际上都建议”数据在前、问题在后”(A078-A079, B068)。

裁决:三方共识,非真矛盾。源于 Phase 1 编码时的误判。P009 已正确反映。

一致性审核:裁决正确。经复查,三方在此点上完全一致。


M006:激进语言——需要还是不需要?

矛盾:旧实践用 “CRITICAL: You MUST…” 强调;新模型(A089, A090)认为激进语言导致过度触发。

裁决:时效性差异。P030(不同模型不同策略)覆盖。对新模型使用正常语气,不遵从时才逐步加强。

一致性审核:裁决合理,与 P030 一致。C022(惩罚机制/strike rule)也归类为”旧模型技巧,新模型慎用”。


附录 C:置信度方法论

评分标准

置信度含义来源要求
★★★★★ (95%+)多方共识,经过充分验证3+ 独立来源一致;或 2 个来源 + 官方文档
★★★★☆ (85%+)经过验证,有较强证据2+ 独立来源一致
★★★☆☆ (65%+)有证据但需进一步验证仅 1 个来源,或来源间有分歧
★★☆☆☆ (40%+)信号级,仅供参考单一来源 + 未经验证

来源体系

  • A 系列(147 条):Anthropic 官方文档 + 教程
  • B 系列(68 条):OpenAI/Google 官方文档
  • C 系列(88 条):Brex 指南 + 学术论文 + 社区整理

独立来源判定

  • Anthropic、OpenAI、Google 各算一个独立来源
  • 学术论文算独立来源
  • 社区整理(如 Brex 指南)如有独立见解算独立来源,如仅转述官方则不算

降级规则

  • 仅单一来源 → 最高 ★★★★☆
  • 仅中文二手来源 → 降一级
  • 学术但未在生产验证 → 最高 ★★★☆☆
  • 模型版本特定 → 标注适用版本而非降级
证据原始数据 (51 条)
T0-1-ch00-Tutorial-How-To
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch00-Tutorial-How-To.md
T0-1-ch02-Being-Clear-and-Direct
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch02-Being-Clear-and-Direct.md
T0-1-ch01-Basic-Prompt-Structure
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch01-Basic-Prompt-Structure.md
T0-1-ch03-Assigning-Roles
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch03-Assigning-Roles.md
T0-1-ch04-Separating-Data-and-Instructions
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch04-Separating-Data-and-Instructions.md
T0-1-ch07-Using-Examples-Few-Shot-Prompting
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch07-Using-Examples-Few-Shot-Prompting.md
T0-1-ch05-Formatting-Output-and-Speaking-for-Claude
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch05-Formatting-Output-and-Speaking-for-Claude.md
T0-1-ch06-Precognition-Thinking-Step-by-Step
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch06-Precognition-Thinking-Step-by-Step.md
T0-1-ch08-Avoiding-Hallucinations
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch08-Avoiding-Hallucinations.md
T0-1-ch09-Complex-Prompts-from-Scratch
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch09-Complex-Prompts-from-Scratch.md
T0-1-ch10a-Appendix-Chaining-Prompts
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch10a-Appendix-Chaining-Prompts.md
T0-1-ch10b-Appendix-Tool-Use
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch10b-Appendix-Tool-Use.md
T0-1-ch10c-Appendix-Search-and-Retrieval
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-1-ch10c-Appendix-Search-and-Retrieval.md
T0-2-anthropic-pe-overview
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-2-anthropic-pe-overview.md
T0-2-anthropic-prompting-best-practices
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-2-anthropic-prompting-best-practices.md
T0-2-anthropic-prompting-tools
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-2-anthropic-prompting-tools.md
T0-3-real-world-01-prompting-recap
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-3-real-world-01-prompting-recap.md
T0-3-real-world-00-README
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-3-real-world-00-README.md
T0-3-real-world-02-medical-prompt
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-3-real-world-02-medical-prompt.md
T0-3-real-world-03-prompt-engineering
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-3-real-world-03-prompt-engineering.md
T0-3-real-world-05-customer-support-ai
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-3-real-world-05-customer-support-ai.md
T0-3-real-world-04-call-summarizer
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-3-real-world-04-call-summarizer.md
T0-4-claude-ai-system-prompts
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-4-claude-ai-system-prompts.md
T0-4-claude-code-system-prompt
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-4-claude-code-system-prompt.md
T0-4-claude-code-tools
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-4-claude-code-tools.md
T0-5-context-engineering
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-5-context-engineering.md
T0-6-prompt-library
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-6-prompt-library.md
T0-claude-code-complete-prompt
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-claude-code-complete-prompt.md
Anthropic 官方高质量提示词示例合集
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-official-prompts-blog-cookbook.md
T1-1-openai-pe-guide
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T1-openai/T1-1-openai-pe-guide.md
T1-2-gpt52-prompting-guide
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T1-openai/T1-2-gpt52-prompting-guide.md
Anthropic 官方提示词原始数据
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-official-prompts-raw.md
T1-3a-gemini3-developer-guide
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T1-google/T1-3a-gemini3-developer-guide.md
T1-3b-gemini3-prompting-guide-vertex
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T1-google/T1-3b-gemini3-prompting-guide-vertex.md
T2-1-langgpt-examples
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T2-frameworks/T2-1-langgpt-examples.md
T2-1-langgpt-templates
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T2-frameworks/T2-1-langgpt-templates.md
T2-1-langgpt-readme
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T2-frameworks/T2-1-langgpt-readme.md
T2-2-brex-prompt-engineering
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T2-frameworks/T2-2-brex-prompt-engineering.md
T3-1-dairai-cot
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T3-basics/T3-1-dairai-cot.md
T3-1-dairai-fewshot
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T3-basics/T3-1-dairai-fewshot.md
T3-1-dairai-self-consistency
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T3-basics/T3-1-dairai-self-consistency.md
T3-1-dairai-introduction
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T3-basics/T3-1-dairai-introduction.md
T3-1-dairai-react
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T3-basics/T3-1-dairai-react.md
T3-1-dairai-tot
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T3-basics/T3-1-dairai-tot.md
T3-1-dairai-techniques-overview
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T3-basics/T3-1-dairai-techniques-overview.md
Phase 1 开放编码 — T1 OpenAI + Google
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/phase1-coding-T1.md
Phase 1 开放编码 — T0 Anthropic
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/phase1-coding-T0.md
Phase 1 开放编码 — T2 框架 + T3 百科
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/phase1-coding-T2T3.md
Agent 场景提示词工程:开放编码(Phase 1)
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/phase1-coding-agent-pe.md
Phase 2-3 合并编码 + 三角验证
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/phase2-3-merged-analysis.md
Claude Code 完整系统提示词(System Prompt)
/Users/eamanc/Documents/pe/jixiaxuegong/research/提示工程教程/evidence/T0-anthropic/T0-claude-code-full-system-prompt.md