大型语言模型(LLMs)如GPT-4、Claude等的核心性能并非仅取决于模型参数,而关键由推理时提供的上下文信息决定。传统“提示工程”(Prompt Engineering)聚焦于优化单次文本输入,但现代AI系统需处理动态、结构化、多源的信息流(如实时数据、知识图谱、历史对话)。

  • 论文:A Survey of Context Engineering for Large Language Models
  • 链接:https:///pdf/2507.13334

本文提出“上下文工程”(Context Engineering)作为新兴学科,旨在系统化设计、管理和优化LLMs的信息负载。通过对1400余篇论文的综述,论文首次构建统一框架,将碎片化的技术(如RAG、记忆系统、多智能体协作)整合为“基础组件”与“系统实现”两层体系,并揭示LLMs存在的根本矛盾:在复杂上下文理解上表现卓越,但在长文本生成、逻辑一致性维护上显著受限。这一发现为下一代AI系统的发展指明方向。

核心概念:上下文工程定义

核心问题:如何形式化描述LLM与上下文的交互?
论文突破性地将上下文 ( C ) 定义为动态结构化信息组件的集合,而非静态字符串。其数学形式化包含两个关键层次:

  • 组件层

    其中  代表不同信息源(如指令 、外部知识 、记忆 ), 是组装函数(如优先级排序、模板格式化)。这解决了传统提示工程无法灵活整合多源信息的缺陷。

  • 优化层

    • :上下文生成函数集(检索/选择/组装)
    • :具体任务实例
    • :输出质量评估函数
      意义:将上下文设计转化为系统级优化问题,目标是最大化任务期望收益,而非局部提示调整。

关键数学原理

  • 信息论最优性:检索组件需最大化与答案  的互信息 ,确保信息相关性。
  • 贝叶斯推理:推断最优上下文后验概率 ,通过似然函数  和先验  处理不确定性,适用于多步推理场景。

与提示工程的本质区别

维度
提示工程
上下文工程
模型
静态字符串
动态结构化组装
目标
优化单次提示
系统级函数优化
状态性
无状态
显式记忆与状态管理
扩展性
长度增加导致脆弱性
模块化组合管理复杂度

基础组件分解

上下文检索与生成

  • 提示工程进阶

    • 思维链(CoT):将问题分解为中间步骤(如“Let’s think step by step”),在数学推理上将准确率从17.7%提升至78.7%。
    • 思维树(ToT):分层探索备选推理路径,24点游戏成功率从4%升至74%。
    • 思维图(GoT):以图结构建模推理依赖,较ToT质量提升62%,成本降31%。
  • 外部知识检索

    • RAG基础架构:融合参数化知识(模型权重)与非参数化知识(外部检索)。
    • 知识图谱集成:如KAPING框架通过语义匹配检索相关事实,无需模型重训练。
    • 智能体驱动检索:LLM智能体动态分析内容、交叉引用信息(如Agentic RAG)。
  • 动态上下文组装

    • 自动化优化:如Automatic Prompt Engineer (APE) 用搜索算法发现最优提示。
    • 多智能体协作:模拟专家团队(分析师/程序员/测试员),代码生成通过率提升29.9-47.1%。

上下文处理

  • 长上下文处理

    • 状态空间模型(SSM):如Mamba实现线性复杂度。
    • 位置插值:扩展上下文窗口(如LongRoPE支持2048K token)。
    • 稀疏注意力:如S²-Attn保留92%性能,显著节省计算。
    • 计算瓶颈:Transformer注意力机制 ( O(n^2) ) 复杂度,序列增至128K token时计算量增122倍。
    • 创新架构
  • 自优化与元学习

    • 自迭代优化:Self-Refine框架让LLM同时担任生成器、反馈提供者、优化器,GPT-4性能提升20%。
    • 元学习:SELF框架让LLM通过生成-过滤自有数据持续进化,减少人工监督。
  • 多模态与结构化整合

    • 多模态挑战:模型常偏向文本输入,忽略视觉细节(“模态偏见”)。
    • 结构化数据:知识图谱嵌入(如GraphToken)提升图推理任务73个百分点。

上下文管理

  • 内存架构

    • 短时内存:上下文窗口内KV缓存。
    • 长时内存:外部存储(如MemGPT模拟操作系统分页)。
    • 层次设计
    • 认知启发:MemoryBank基于艾宾浩斯遗忘曲线动态调整记忆强度。
  • 压缩技术

    • 上下文压缩:如QwenLong-CPRS按自然语言指令动态压缩。
    • KV缓存优化:Heavy Hitter Oracle (H₂O) 通过淘汰低贡献token提升吞吐量29倍。

系统实现架构

检索增强生成(RAG)

  • 模块化RAG
    分层架构(顶层阶段/中间子模块/底层操作单元),支持路由、调度与融合机制。如FlashRAG提供5核心模块灵活组合。

  • 智能体驱动RAG
    将检索转化为动态操作(如PlanRAG:先规划后检索),整合任务分解与反思机制。

    上下文工程(Context Engineering)综述:大模型的下一个前沿
  • 图增强RAG
    用图结构捕获实体关系(如GraphRAG社区检测分层索引),解决传统RAG上下文漂移问题。

实时应用挑战

  • 动态知识更新:增量索引避免全量重训练。
  • 低延迟检索:图方法优化速度-精度平衡(如LightRAG双级检索)。

内存系统

  • 短时内存
    上下文窗口内KV缓存(如Transformer灵活检索,LSTM侧重早期语义)。

  • 长时内存

    • 文本存储:完整交互历史。
    • 知识表示:摘要/知识三元组/混合形式。
    • 操作:编码/检索/反思/遗忘(如Reflective Memory管理冲突消解)。

商业应用

  • Google Gemini:跨生态长时记忆个性化体验。
  • ChatGPT Memory:跨会话对话记忆。

工具集成推理

  • 函数调用机制

    • 技术演进:ToolFormer(自主API学习)→ ReAct(“思考-行动-观察”循环)→ OpenAI JSON标准化。
    • 训练方法:微调(稳定性高) vs. 提示工程(灵活性强)。
  • 环境交互框架

    • 单工具:PAL生成Python代码委派计算。
    • 多工具协调:Chameleon组合视觉模型/搜索引擎/Python函数。
    • 强化学习:ReTool优化代码解释器使用,数学推理准确率67%。

评估瓶颈

  • GAIA基准测试:人类任务完成率92% vs. GPT-4仅15%。
  • 工具选择准确性:嵌套调用错误率显著上升。

多智能体系统

  • 通信协议标准化

    • MCP(模型上下文协议):类USB-C的AI交互标准。
    • A2A(智能体间协议):基于能力卡片的安全协作。
    • 挑战:协议碎片化与安全漏洞。
  • 编排机制

    • 先验编排:输入预分析选择智能体。
    • 后验编排:并行调用+置信度评估(如3S协调器)。
    • 核心需求:事务完整性保障(如SagaLLM框架)。

应用场景

  • 医疗健康:协调专科智能体处理临床查询。
  • 网络管理:上下文感知资源分配。

关键发现与挑战

核心不对称性(Core Asymmetry)

问题本质
LLMs在上下文理解(如复杂文档分析、多源信息整合)上表现卓越,但在长文本生成(如报告撰写、多步规划)中暴露出三大缺陷:

  1. 逻辑连贯性断裂
  2. 事实一致性下降(如早期结论被遗忘)
  3. 规划深度不足
    实验证据
  • 延伸思维链任务中,性能因“中间信息丢失”下降多达73%。
  • 自动评估显示,生成质量随长度增加呈指数级衰减。

评估困境

  • 组件级评估
    • 传统指标(BLEU/ROUGE)无法捕捉推理链质量。
    • 长上下文测试依赖“大海捞针”(Needle-in-Haystack)范式,缺乏系统性。
  • 系统级评估
    • 多智能体协作缺乏事务完整性验证(如LangGraph无原子性保证)。
    • 商业助手在长交互中准确率下降30%(LongMemEval基准)。

案例:WebAgent评测

模型
开源
成功率
IBM CUGA
×
61.7%
OpenAI Operator
×
58.1%
GPT-4 + 浏览器
23.5%
说明:复杂网页交互任务中,现有模型远未达实用水平。


技术瓶颈

  • 长度扩展
    注意力机制 ( O(n^2) ) 复杂度使百万级token处理成本过高。
  • 内存管理
    KV缓存随序列增长成瓶颈(如128K请求需16GB内存)。

结论

本文首次将上下文工程确立为一门系统化学科,通过对1400+篇文献的整合,构建了“基础组件-系统实现”双层框架,终结了RAG、记忆系统、多智能体等领域的技术碎片化。其核心贡献在于:

  1. 形式化定义:将上下文建模为动态优化问题,奠定数学基础(信息论/贝叶斯推理)。
  2. 关键技术图谱
  • 基础层:检索/处理/管理组件的创新(如SSM长文处理、自迭代优化)。
  • 系统层:四类实现架构的演进(模块化RAG→工具集成智能体)。
  • 关键洞见:揭示LLMs理解强于生成的根本不对称性,为未来研究指明优先级。
  • 评估与挑战:指出系统级评测的缺失(如事务完整性)、长度扩展的计算瓶颈。
  • 未来研究需聚焦三大方向:

    • 理论:建立上下文组合的数学规范。
    • 技术:突破长文本生成瓶颈,实现多模态/图结构深度融合。
    • 伦理:设计内存隐私保护与多智能体责任机制。

    此框架不仅为研究者提供技术路线图,更推动AI从“静态提示”迈向“动态上下文感知”的新范式。