Gate News: Сообщение. 13 апреля, исследователи из Калифорнийского университета недавно раскрыли, что некоторые сторонние AI-крупномасштабные языковые модели (LLM) маршрутизаторы имеют риски безопасности, которые могут привести к краже криптовалютных активов. Исследование показало, что LLM-маршрутизаторы выступают в качестве посредников API и могут читать информацию в открытом виде; выяснилось, что некоторые маршрутизаторы встраивают вредоносный код и похищают учетные данные. Команда протестировала 28 платных маршрутизаторов и 400 бесплатных маршрутизаторов и обнаружила, что 9 маршрутизаторов активно внедряли вредоносный код, 2 обходили триггеры, 17 обращались к учетным данным Amazon Web Services, а некоторые маршрутизаторы даже переводили ETH с помощью приватного ключа Ethereum исследователей. В исследовании отмечается, что вредоносное поведение маршрутизаторов трудно обнаружить, а некоторые фреймворки для AI-агентов имеют «режим YOLO», который может автоматически выполнять команды, повышая риски безопасности. В рекомендации говорится, что разработчикам не следует передавать приватные ключи или фразы-«seed» через AI-агентов, и звучит призыв к AI-компаниям шифровать и подписывать ответы, чтобы усилить безопасность.