Prompt 工程师 · 专业知识库


为什么要有这个库

Prompt 工程是 AI 时代演化最快的学科之一——模型每季度迭代、最佳实践每月刷新、新技术(Agent/MCP/Tool Use)持续涌现。如果提示词设计只凭经验和直觉,3 个月就会落后。

本知识库的作用: 1. 权威锚点——确保每一条提示词设计决策都能追溯到可信来源,而非"我觉得" 2. 效率杠杆——A 线设计时快速查阅方法论和模型特性,避免从零摸索 3. 审计基线——B 线季度审计时,用最新资料复检现有提示词是否过时 4. 培训素材——新岗位上线时,R20 需要快速理解该领域,知识库提供结构化入口


组织结构

专业知识库/
├── README.md                          ← 本文件(索引 + 使用说明)
│
├── 方法论/                            ← 核心提示词工程方法论
│   ├── RTCO四层框架.md                ← 原创,所有提示词的骨架
│   ├── Chain-of-Thought.md            ← Wei et al. 2022
│   ├── Tree-of-Thought.md             ← Yao et al. 2023
│   ├── ReAct.md                       ← Yao et al. 2022
│   └── Self-Consistency.md            ← Wang et al. 2022
│
├── 源_官方指南/                       ← T1 · 最高权威
│   ├── Anthropic_Prompt_Guide.md      ← Claude 系列最佳实践
│   ├── OpenAI_Prompt_Guide.md         ← GPT 系列最佳实践
│   ├── Google_Prompt_Engineering_v7.md ← Gemini + 通用方法论
│   └── Meta_Llama_Guide.md            ← 开源模型提示词实践
│
├── 源_学术论文/                       ← T2 · 学术根基
│   ├── Wei2022_CoT.md                 ← Chain-of-Thought 原论文摘要
│   ├── Yao2023_ToT.md                 ← Tree of Thoughts 原论文摘要
│   ├── Yao2022_ReAct.md               ← ReAct 原论文摘要
│   ├── Wang2022_SelfConsistency.md    ← Self-Consistency 原论文摘要
│   ├── Bai2022_ConstitutionalAI.md    ← Anthropic 对齐方法论
│   └── Khattab2023_DSPy.md            ← 程序化 Prompt 优化
│
├── 源_实践博客/                       ← T3 · 一线实践
│   ├── Willison_Simon.md              ← LLM 应用实践第一手记录
│   ├── Weng_Lilian.md                 ← 综述级深度文章
│   ├── Yan_Eugene.md                  ← ML 系统设计 + Prompt 工程
│   └── LatentSpace_Podcast.md         ← AI 工程前沿访谈
│
├── 源_框架工具/                       ← T4 · 工具链
│   ├── LangChain.md                   ← Prompt 编排框架
│   ├── DSPy.md                        ← 程序化 Prompt 优化
│   ├── Guidance_LMQL.md               ← 结构化输出控制
│   └── Claude_Code_Cursor.md          ← 代码场景 Prompt 实践
│
└── 源_安全/                           ← T5 · 安全与对齐
    ├── OWASP_LLM_Top10.md            ← LLM 应用安全清单
    ├── Prompt_Injection_攻防.md       ← 注入攻击与防护
    └── Constitutional_AI_RLHF.md      ← 对齐原理

元数据规范

每份知识库文档的 front-matter 必须包含:

---
source_type: T1官方 | T2学术 | T3博客 | T4工具 | T5安全
title: 文档标题
author: 作者/机构
url: 原始链接
date_published: YYYY-MM-DD        # 原文发布日期
date_captured: YYYY-MM-DD         # 收录日期
last_verified: YYYY-MM-DD         # 最近一次验证仍有效
relevance: 核心 | 参考 | 存档      # 与当前工作的相关度
tags: [CoT, 推理, Claude]          # 自由标签
---

为什么要 last_verified:这个领域变化太快,6 个月前的"最佳实践"可能已经被模型更新淘汰。每份文档必须定期验证。


用法

A 线设计时查

  1. 收到需求 → 先查「方法论/」确定技术路线(CoT? ToT? ReAct?)
  2. 确定模型 → 查「源_官方指南/」了解该模型的能力边界和提示词格式偏好
  3. 遇到安全场景 → 查「源_安全/」确认防护措施
  4. 需要结构化输出 → 查「源_框架工具/」看是否有现成方案

B 线维护时更新

  1. 季度审计 → 逐一检查所有文档的 last_verified 日期
  2. 模型大版本发布 → 立即更新对应「源_官方指南/」
  3. 重要论文/博客发布 → 评估收录价值,达标则新增条目
  4. 方法论实践验证 → 在「方法论/」中补充实战案例和注意事项

红线


维护节奏

频率 动作
每月 扫描 T3 博客 + T4 工具更新,有重大变化则收录
每季度 全量 last_verified 复检 + 淘汰过时条目
模型发布时 48h 内更新对应 T1 官方指南
重大论文时 1 周内评估收录 + 撰写摘要

这个领域的节奏是月级迭代,不是年级。知识库维护不是"有空再说",是 R20 的核心职责之一。


权威度要求

按 C13 标准:≥ 15 源,覆盖 T1–T5 至少 4 级。


用户参考

用户已有的提示词资源: - ~/Desktop/提示词/05_Prompt优化专家提示词.md(完整规则参考)