Noticias del Gate, 13 de abril, investigadores de la Universidad de California revelaron recientemente que algunos enrutadores de modelos de lenguaje grandes de IA (LLM) de terceros presentan riesgos de seguridad, lo que podría provocar el robo de activos de criptomonedas. Los estudios muestran que, como intermediarios de API, los enrutadores de LLM pueden leer información en texto plano; se descubrió que algunos enrutadores inyectan código malicioso y roban credenciales. El equipo probó 28 enrutadores de pago y 400 enrutadores gratuitos y encontró que 9 enrutadores inyectaban activamente código malicioso, 2 evitaban activadores, y 17 accedían a credenciales de Amazon Web Services; incluso, algunos enrutadores transfirieron ETH mediante la clave privada de Ethereum de los investigadores. El estudio señala que el comportamiento malicioso de los enrutadores es difícil de detectar y que, además, el “modo YOLO” de algunas plataformas de agentes de IA puede ejecutar comandos automáticamente, lo que incrementa el riesgo de seguridad. Los investigadores recomiendan que los desarrolladores no permitan que las claves privadas o las frases semilla se transmitan mediante agentes de IA y piden a las empresas de IA que firmen con cifrado las respuestas para mejorar la seguridad.