LangChain 赋予 AI 代理对其自身内存管理的控制权

Terrill Dicki

2026年3月12日 01:55

LangChain的深度代理SDK现在允许AI模型自主决定何时压缩其上下文窗口,从而减少在长时间运行的代理工作流程中的人工干预。

LangChain已发布其深度代理SDK的更新,赋予AI模型自主管理记忆的能力。新功能于2026年3月11日宣布,允许代理自主触发上下文压缩,而不再依赖固定的令牌阈值或手动用户命令。

此变化解决了代理开发中的一个持续难题:上下文窗口在不合时宜的时间被填满。目前的系统通常在达到模型上下文限制的85%时进行内存压缩——这可能发生在重构中或复杂调试会话期间。时机不当会导致上下文丢失和工作流程中断。

为什么时机重要

上下文压缩并不新鲜。这项技术用压缩的摘要替代旧消息,以保持代理在令牌限制内。但何时压缩与是否压缩一样重要。

LangChain的实现识别出几个最佳压缩时机:用户转移焦点的任务边界,从大量研究内容中提取结论后,或在开始长时间多文件编辑之前。代理本质上学会在开始繁琐工作前先整理清理,而不是在空间不足时仓促应对。

2024年12月由Factory AI发布的研究支持这一方法。他们的分析发现,结构化摘要——保持上下文连续性而非激进截断——对于复杂代理任务(如调试)至关重要。维护工作流程结构的代理在性能上明显优于采用简单截断的方法。

技术实现

该工具作为Deep Agents SDK(Python)的中间件发布,并集成到现有的CLI中。开发者将其添加到代理配置中:

系统会保留可用上下文的10%作为最新消息,同时对之前的内容进行摘要。LangChain内置了安全机制——完整的对话历史保存在代理的虚拟文件系统中,允许在压缩出错时进行恢复。

内部测试显示,代理在触发压缩时较为保守。LangChain通过其Terminal-bench-2基准测试和使用LangSmith追踪的定制评估套件验证了该功能。当代理自主压缩时,通常选择能改善工作流程连续性的时机。

更广阔的视角

此次发布反映了代理架构理念的更广泛转变。LangChain明确提及Richard Sutton的“苦涩教训”——即利用计算的通用方法随着时间推移往往优于手工调优的方法。

不再由开发者细致配置代理何时管理内存,而是将这一决策委托给模型本身。这是一种押注:像GPT-5.4这样的模型已具备足够的推理能力,能够可靠地做出这些操作决策。

对于构建长时间运行或交互式代理的开发者来说,该功能通过SDK可选择启用,并可通过CLI中的/compact命令调用。实际效果是:减少工作流程中断,减少用户对上下文限制的手动干预——大多数终端用户其实并不理解这些限制。

图片来源:Shutterstock

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论