Конфликт между стартап-компанией Anthropic и правительством США продолжает обостряться. Согласно сообщению Reuters, Министерство обороны США (Пентагон) недавно включило Anthropic в список «рисков в цепочке поставок» (supply-chain risk), ограничив использование их AI-технологий в военных контрактах. Anthropic заявила, что такое решение не имеет юридических оснований и уже подала иск в федеральный суд с требованием отменить соответствующее решение.
(Предыстория: Anthropic возобновила переговоры с Пентагоном по AI — стремясь сохранить сотрудничество по Claude для обороны, при этом придерживаясь этических красных линий)
(Дополнительный фон: Генеральный директор Anthropic резко высказался: контракты OpenAI с Пентагоном — ложь, а Altman притворяется послом мира)
Статья содержит содержание
Переключить
Конфликт между компанией по разработке искусственного интеллекта Anthropic и правительством США официально перешагнул в юридическую плоскость. Министерство обороны США недавно объявило, что включило Anthropic в список «рисков в цепочке поставок», ограничив использование их AI-моделей в военных контрактах. В ответ Anthropic резко возразила, заявив, что такое решение «беспрецедентно и не имеет юридических оснований», и уже подала иск в федеральный суд с требованием отменить это решение и запретить правительству реализовывать соответствующие меры.
По информации Reuters, Министерство обороны США официально уведомило Anthropic о признании компании и её AI-технологий «рисками в цепочке поставок», решение вступило в силу немедленно. Такой статус обычно используют для ограничения поставщиков, которые могут представлять угрозу национальной безопасности, а также могут запрещать их продукцию к использованию в оборонных закупках или военных контрактах.
На практике это означает, что подрядчики и поставщики, сотрудничающие с американскими военными, при выполнении проектов Министерства обороны могут быть вынуждены отказаться от использования AI-моделей Anthropic, например, их известной системы Claude. Эксперты отмечают, что это крайне редкий случай, поскольку подобные статусы ранее применялись в основном к иностранным компаниям или поставщикам, считающимся угрозой национальной безопасности, а не к американским разработчикам AI.
Ключевым вопросом этого спора является ограничение использования AI-технологий Anthropic. Согласно сообщениям нескольких СМИ, Anthropic ясно отказалась допускать использование своих моделей для двух категорий высокорискованных целей:
Однако Министерство обороны США в ходе переговоров с компанией выразило желание, чтобы AI-модели могли использоваться «для всех законных целей». В результате стороны так и не достигли согласия по вопросам безопасности и ограничения использования, что привело к разрыву переговоров и последующему признанию рисков в цепочке поставок.
Генеральный директор Anthropic Даріо Амодеи заявил, что компания считает решение Минобороны «незаконным» и предупреждает, что такой шаг может создать опасный прецедент для давления правительства на бизнес. Anthropic уже подала иск в федеральный суд с требованием отменить это решение и запретить правительству реализовывать соответствующие ограничения.
Компания указывает, что статус «рисков в цепочке поставок» обычно применялся к иностранным конкурентам, и применение его к американской AI-компании может иметь далеко идущие последствия для всей технологической отрасли и модели сотрудничества с государством.
Аналитики отмечают, что этот случай отражает новые вызовы, с которыми сталкивается индустрия AI: смогут ли крупные модели, начинающие проникать в военную и национальную безопасность, ограничивать возможности правительства в использовании их технологий?
Некоторые эксперты считают, что если правительство сможет вводить экономические санкции против компаний за установленные ими ограничения по безопасности, это может ослабить автономию технологических компаний в вопросах безопасности и этики AI. В то же время военные считают, что AI-технологии имеют стратегическое значение для национальной безопасности и не должны подвергаться чрезмерным ограничениям.
Результат этого судебного разбирательства может определить не только возможность восстановления сотрудничества Anthropic с правительством США, но и установить важный прецедент для будущих моделей взаимодействия AI-компаний и государства.