Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
LangChain Confere aos Agentes de IA Controlo sobre a Gestão da Sua Própria Memória
Terrill Dicki
12 de mar de 2026 01:55
A SDK de Agentes Profundos do LangChain agora permite que os modelos de IA decidam quando comprimir as suas janelas de contexto, reduzindo a intervenção manual em fluxos de trabalho de agentes de longa duração.
O LangChain lançou uma atualização na sua SDK de Agentes Profundos que dá aos modelos de IA as chaves para a sua própria gestão de memória. A nova funcionalidade, anunciada a 11 de março de 2026, permite que os agentes ativem autonomamente a compressão de contexto, em vez de depender de limites fixos de tokens ou comandos manuais do utilizador.
A mudança resolve uma dor de cabeça persistente no desenvolvimento de agentes: as janelas de contexto enchem-se em momentos inconvenientes. Os sistemas atuais normalmente compactam a memória ao atingir 85% do limite de contexto de um modelo — o que pode acontecer no meio de uma refatoração ou durante uma sessão de depuração complexa. Um timing inadequado leva à perda de contexto e a workflows quebrados.
Porque o Timing é Importante
A compressão de contexto não é nova. A técnica substitui mensagens antigas por resumos condensados para manter os agentes dentro dos seus limites de tokens. Mas quando comprimir é tão importante quanto se deve comprimir.
A implementação do LangChain identifica vários momentos ótimos para compressão: limites de tarefas quando os utilizadores mudam de foco, após extrair conclusões de grandes contextos de pesquisa, ou antes de iniciar edições longas com múltiplos ficheiros. O agente aprende essencialmente a fazer uma limpeza antes de começar trabalhos complicados, em vez de se apressar quando fica sem espaço.
Pesquisas da Factory AI, publicadas em dezembro de 2024, apoiam esta abordagem. A análise deles revelou que a sumarização estruturada — que preserva a continuidade do contexto em vez de truncar agressivamente — foi fundamental para tarefas complexas de agentes, como depuração. Agentes que mantiveram a estrutura do fluxo de trabalho superaram significativamente aqueles que usaram métodos simples de corte.
Implementação Técnica
A ferramenta é disponibilizada como middleware para a SDK de Agentes Profundos (Python) e integra-se com a CLI existente. Os desenvolvedores adicionam-na à configuração do seu agente:
O sistema mantém 10% do contexto disponível como mensagens recentes, enquanto resume tudo o que veio antes. O LangChain criou uma rede de segurança — o histórico completo da conversa permanece no sistema de ficheiros virtual do agente, permitindo recuperação se a compressão correr mal.
Testes internos mostraram que os agentes são conservadores ao ativar a compressão. O LangChain validou a funcionalidade com o benchmark Terminal-bench-2 e com conjuntos de avaliação personalizados usando rastros do LangSmith. Quando os agentes comprimiam de forma autónoma, escolhiam momentos que melhoravam a continuidade do fluxo de trabalho.
O Panorama Geral
Esta atualização reflete uma mudança mais ampla na filosofia da arquitetura de agentes. O LangChain faz referência explícita à “lição amarga” de Richard Sutton — a observação de que métodos gerais que aproveitam a computação tendem a superar abordagens ajustadas manualmente ao longo do tempo.
Em vez de os desenvolvedores configurarem meticulosamente quando os agentes devem gerir a memória, a framework delega essa decisão ao próprio modelo. É uma aposta de que as capacidades de raciocínio em modelos como o GPT-5.4 atingiram um ponto em que podem tomar essas decisões operacionais de forma fiável.
Para desenvolvedores que constroem agentes de longa duração ou interativos, a funcionalidade é opcional através da SDK e está disponível via comando /compact na CLI. O impacto prático: menos interrupções nos fluxos de trabalho e menos necessidade de intervenção do utilizador em limites de contexto que, na maioria das vezes, os utilizadores finais nem compreendem.
Fonte da imagem: Shutterstock