CertiK Sinaliza Riscos de Segurança em Marketplaces de Agentes de IA, Identifica Lacunas em Modelos de Segurança - U.Today

UToday
BTC0,12%
XRP1,96%
ETH1,5%
SHIB-2,06%
  • Prova de conceito expõe risco mais amplo na indústria
  • Recomendações principais para desenvolvedores
  • Implicações para utilizadores e plataformas Pesquisadores da CertiK levantaram preocupações sobre a segurança dos ecossistemas emergentes de agentes de IA, argumentando que os atuais sistemas de revisão de marketplaces não são suficientes para prevenir comportamentos maliciosos.

Num estudo recente, a equipa demonstrou como um “Skill” de terceiros comprometido na plataforma OpenClaw poderia contornar as salvaguardas existentes e executar comandos arbitrários num sistema hospedeiro. As descobertas destacam fraquezas estruturais na forma como os marketplaces de agentes de IA avaliam e implementam código externo.

A pesquisa concentrou-se no processo de revisão utilizado pela Clawhub, que inclui análise de código estático, verificações via VirusTotal e ferramentas de moderação baseadas em IA.

HISTÓRIAS EM DESTAQUE

Autor de Pai Rico, Pai Pobre: Bitcoin pode atingir $750.000

Revisão do Mercado de Criptomoedas: XRP Pronto para subir a $1,70, Ethereum (ETH) entra em modo de alta, Shiba Inu (SHIB) finalmente em mercado de alta?

Segundo a CertiK, esses mecanismos podem ser contornados através de modificações relativamente pequenas no código. Alterando ligeiramente a lógica ou reestruturando vulnerabilidades, um Skill malicioso pode parecer inofensivo durante a instalação, mantendo a capacidade de executar ações prejudiciais após a implantação.

Isto cria uma falsa sensação de segurança para os utilizadores, pois a aprovação pelos sistemas de revisão do marketplace não garante que um Skill seja seguro.

Prova de conceito expõe risco mais amplo na indústria

O ataque de prova de conceito destaca um problema mais amplo que afeta os ecossistemas de agentes de IA: modelos de segurança que dependem fortemente da revisão pré-implantação, em vez de proteção em tempo de execução.

Sem salvaguardas como sandboxing, controles de permissão rigorosos e isolamento em tempo de execução, as plataformas colocam responsabilidade excessiva em sistemas de deteção que não foram projetados para lidar com ameaças complexas e em evolução.

As descobertas sugerem que, à medida que os marketplaces de agentes de IA se expandem, o risco de Skills maliciosos ou comprometidos entrarem em ambientes de produção aumentará.

Os investigadores da CertiK defendem que a indústria deve repensar sua abordagem para garantir os agentes de IA, priorizando o contenção em tempo de execução em vez da deteção.

Em vez de presumir que todo código malicioso pode ser identificado antes da implantação, as plataformas devem ser projetadas com a expectativa de que algumas ameaças inevitavelmente passarão pelos processos de revisão. Nesse modelo, o foco muda de prevenir cada violação para minimizar o dano potencial causado por uma delas.

Isso representa uma transição mais ampla de uma mentalidade de “detecção perfeita” para uma centrada na contenção de danos e resiliência do sistema.

Recomendações principais para desenvolvedores

Para enfrentar esses riscos, a CertiK apresenta várias medidas para desenvolvedores que constroem plataformas de agentes de IA.

O sandboxing deve tornar-se o modelo padrão de execução para Skills de terceiros, garantindo que o código externo rode em ambientes isolados, em vez de interagir diretamente com os sistemas hospedeiros.

Além disso, as plataformas devem implementar quadros de permissões granulares, por Skill. Cada Skill deve declarar explicitamente os recursos de que necessita, com o runtime a impor essas permissões durante a execução. Essa abordagem limita o impacto potencial de componentes comprometidos ou maliciosos.

Os investigadores também enfatizam que Skills de terceiros não devem herdar uma confiança ampla e implícita do sistema hospedeiro, pois isso aumenta significativamente o risco de exploração.

Implicações para utilizadores e plataformas

Para os utilizadores, o relatório destaca uma limitação importante: um rótulo de “benigno” num marketplace não equivale a segurança real. Apenas indica que o processo de revisão existente não detectou uma ameaça.

Até que proteções mais fortes em tempo de execução sejam amplamente adotadas, plataformas como a OpenClaw podem ser mais adequadas para ambientes de menor risco, que não envolvam dados sensíveis, credenciais ou ativos de alto valor.

De forma mais geral, a pesquisa aponta para uma questão estrutural nos ecossistemas de IA. Embora os processos de revisão possam ajudar a identificar ameaças óbvias, eles não podem servir como a principal defesa para sistemas que executam código de terceiros com privilégios elevados.

A CertiK conclui que melhorias significativas na segurança exigirão uma mudança na forma como as plataformas de agentes de IA são desenhadas.

Em vez de depender de sistemas de deteção cada vez mais complexos, os desenvolvedores devem criar ambientes que assumam que a falha é possível e garantir que qualquer violação seja contida. Isso inclui adotar técnicas de isolamento mais robustas, impor permissões estritas e tratar a segurança em tempo de execução como a camada de proteção central.

À medida que as aplicações baseadas em IA continuam a crescer em complexidade e adoção, a capacidade de conter riscos em tempo de execução pode tornar-se o fator definidor na segurança dos ecossistemas digitais de próxima geração.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários