No núcleo “LangChain Core” que desempenha um papel central na operação de agentes de IA, foi descoberto uma vulnerabilidade de segurança grave. O problema foi nomeado “LangGrinch”, permitindo que atacantes roubem informações sensíveis dentro do sistema de IA. Esta vulnerabilidade, por potencialmente abalar a base de segurança de várias aplicações de IA a longo prazo, está a soar um alarme em todo o setor.
A startup de segurança em IA Cyata Security divulgou esta vulnerabilidade, com o número CVE-2025-68664, e atribuiu-lhe uma classificação de risco elevada de (CVSS)9.3 pontos na escala de vulnerabilidades comum. O núcleo do problema reside no fato de que as funções auxiliares internas incluídas no LangChain Core, durante os processos de serialização e desserialização, podem interpretar erroneamente entradas do utilizador como objetos confiáveis. Os atacantes podem explorar a técnica de “injeção de prompts” para manipular a saída estruturada gerada pelo agente, inserindo chaves de marcação internas, que posteriormente são tratadas como objetos confiáveis.
O LangChain Core desempenha um papel central em muitos frameworks de agentes de IA, com dezenas de milhões de downloads nos últimos 30 dias. Estatísticas gerais indicam que o total de downloads ultrapassou 847 milhões. Considerando as aplicações conectadas ao ecossistema completo do LangChain, os especialistas acreditam que o impacto desta vulnerabilidade será bastante amplo.
Yarden Porat, investigador de segurança da Cyata, explicou: “A particularidade desta vulnerabilidade é que ela não é uma simples questão de desserialização, mas ocorre na própria trajetória de serialização. O armazenamento, transmissão em fluxo ou posterior recuperação de dados estruturados gerados por prompts de IA expõe uma nova superfície de ataque.” A Cyata confirmou que, com um único prompt, existem 12 caminhos de ataque claros que podem levar a diferentes cenários.
Uma vez ativado, o ataque pode causar vazamento remoto de variáveis de ambiente através de requisições HTTP, incluindo informações valiosas como credenciais de nuvem, URLs de acesso a bancos de dados, informações de bancos vetoriais, chaves de API de LLM, entre outros. O mais grave é que esta vulnerabilidade é um defeito estrutural gerado pelo próprio LangChain Core, sem necessidade de ferramentas de terceiros ou integrações externas. A Cyata alertou para o fato de que se trata de uma “ameaça presente na camada de pipeline do ecossistema”.
Atualmente, patches de segurança para corrigir o problema foram lançados juntamente com as versões 1.2.5 e 0.3.81 do LangChain Core. Antes de tornar público, a Cyata notificou a equipe de operações do LangChain, que, segundo informações, respondeu imediatamente e tomou medidas para fortalecer a segurança a longo prazo.
Shahar Tal, cofundador e CEO da Cyata, destacou: “À medida que os sistemas de IA são implantados de forma abrangente em ambientes industriais, a questão de quais permissões o sistema irá consumir torna-se uma questão de segurança mais central do que a própria execução de código. Em arquiteturas baseadas na identificação de identidade de agentes, a minimização de permissões e o impacto mínimo devem ser elementos básicos de design.”
Este incidente deve servir como uma oportunidade para a indústria de IA — cujo foco está gradualmente mudando de intervenção humana para automação baseada em agentes — refletir sobre os princípios fundamentais de segurança no design.