Context Engineering:比 Prompt Engineering 更重要的事
Prompt Engineering 的局限
我们花了太多时间在「如何写好一个 Prompt」上,却忽略了一个更本质的问题:模型的输出质量,80% 取决于你喂给它的上下文,而不是你的指令措辞。
这就是 Context Engineering 的核心命题——系统性地构建、筛选、组织和管理 AI 模型所需要的上下文信息。
Context Engineering 的四大支柱
1. 检索增强生成 (RAG)
RAG 已从简单的「向量搜索 + 拼接」进化为多阶段、多模态的智能检索系统。关键实践:
2. 结构化记忆系统
短期记忆(对话上下文)+ 长期记忆(用户画像、知识库)+ 工作记忆(当前任务状态)——三层记忆架构是构建有效 Agent 的基础。
3. 上下文压缩与蒸馏
Token 是有限的资源。如何在有限的上下文窗口中塞入最高密度的有效信息,是一门工程艺术:
4. 工具输出的结构化
Agent 调用工具后返回的原始数据,需要经过格式化、过滤和摘要才能成为有效上下文。一个好的 Context Engineer 会像设计 API Response 一样精心设计工具输出的格式。
实战:从零搭建 Context Pipeline
一个典型的 Context Engineering 流水线包含以下阶段:
结语
如果说 Prompt Engineering 是「问对问题的艺术」,那么 Context Engineering 就是「提供正确信息的科学」。在 Agent 时代,后者的重要性正在指数级增长。