LangChain Confere aos Agentes de IA Controlo sobre a Gestão da Sua Própria Memória

Terrill Dicki

12 de mar de 2026 01:55

A SDK de Agentes Profundos do LangChain agora permite que os modelos de IA decidam quando comprimir as suas janelas de contexto, reduzindo a intervenção manual em fluxos de trabalho de agentes de longa duração.

O LangChain lançou uma atualização na sua SDK de Agentes Profundos que dá aos modelos de IA as chaves para a sua própria gestão de memória. A nova funcionalidade, anunciada a 11 de março de 2026, permite que os agentes ativem autonomamente a compressão de contexto, em vez de depender de limites fixos de tokens ou comandos manuais do utilizador.

A mudança resolve uma dor de cabeça persistente no desenvolvimento de agentes: as janelas de contexto enchem-se em momentos inconvenientes. Os sistemas atuais normalmente compactam a memória ao atingir 85% do limite de contexto de um modelo — o que pode acontecer no meio de uma refatoração ou durante uma sessão de depuração complexa. Um timing inadequado leva à perda de contexto e a workflows quebrados.

Porque o Timing é Importante

A compressão de contexto não é nova. A técnica substitui mensagens antigas por resumos condensados para manter os agentes dentro dos seus limites de tokens. Mas quando comprimir é tão importante quanto se deve comprimir.

A implementação do LangChain identifica vários momentos ótimos para compressão: limites de tarefas quando os utilizadores mudam de foco, após extrair conclusões de grandes contextos de pesquisa, ou antes de iniciar edições longas com múltiplos ficheiros. O agente aprende essencialmente a fazer uma limpeza antes de começar trabalhos complicados, em vez de se apressar quando fica sem espaço.

Pesquisas da Factory AI, publicadas em dezembro de 2024, apoiam esta abordagem. A análise deles revelou que a sumarização estruturada — que preserva a continuidade do contexto em vez de truncar agressivamente — foi fundamental para tarefas complexas de agentes, como depuração. Agentes que mantiveram a estrutura do fluxo de trabalho superaram significativamente aqueles que usaram métodos simples de corte.

Implementação Técnica

A ferramenta é disponibilizada como middleware para a SDK de Agentes Profundos (Python) e integra-se com a CLI existente. Os desenvolvedores adicionam-na à configuração do seu agente:

O sistema mantém 10% do contexto disponível como mensagens recentes, enquanto resume tudo o que veio antes. O LangChain criou uma rede de segurança — o histórico completo da conversa permanece no sistema de ficheiros virtual do agente, permitindo recuperação se a compressão correr mal.

Testes internos mostraram que os agentes são conservadores ao ativar a compressão. O LangChain validou a funcionalidade com o benchmark Terminal-bench-2 e com conjuntos de avaliação personalizados usando rastros do LangSmith. Quando os agentes comprimiam de forma autónoma, escolhiam momentos que melhoravam a continuidade do fluxo de trabalho.

O Panorama Geral

Esta atualização reflete uma mudança mais ampla na filosofia da arquitetura de agentes. O LangChain faz referência explícita à “lição amarga” de Richard Sutton — a observação de que métodos gerais que aproveitam a computação tendem a superar abordagens ajustadas manualmente ao longo do tempo.

Em vez de os desenvolvedores configurarem meticulosamente quando os agentes devem gerir a memória, a framework delega essa decisão ao próprio modelo. É uma aposta de que as capacidades de raciocínio em modelos como o GPT-5.4 atingiram um ponto em que podem tomar essas decisões operacionais de forma fiável.

Para desenvolvedores que constroem agentes de longa duração ou interativos, a funcionalidade é opcional através da SDK e está disponível via comando /compact na CLI. O impacto prático: menos interrupções nos fluxos de trabalho e menos necessidade de intervenção do utilizador em limites de contexto que, na maioria das vezes, os utilizadores finais nem compreendem.

Fonte da imagem: Shutterstock

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar