Команда Трампа возмущена принципиальной позицией Дарио Амодеи, который настаивает на том, чтобы Министерство обороны не использовало его инструменты ИИ в военных целях
Контракт Anthropic на 200 миллионов долларов с Министерством обороны находится под вопросом после того, как Anthropic якобы выразила озабоченность использованием своей модели Claude в ходе рейда на Николаса Мадуро в январе.
Рекомендуемое видео
«Отношения Министерства войны с Anthropic пересматриваются», — заявил главный пресс-секретарь Пентагона Шон Парнелл в заявлении для Fortune. «Нашей стране необходимо, чтобы наши партнеры были готовы помогать нашим бойцам побеждать в любой битве. В конечном итоге, речь идет о наших войсках и безопасности американского народа.»
Напряженность в последние недели усилилась после того, как, по данным The Hill, высокопоставленный представитель Anthropic якобы связался с руководителем компании Palantir, чтобы поставить под сомнение использование Claude в рейде. Руководитель Palantir интерпретировал этот контакт как неодобрение использования модели в рейде и передал детали обмена в Пентагон. (Президент Трамп заявил, что во время рейда военные использовали оружие «дезориентатор», которое делало вражеское оборудование «неработоспособным».)
«Anthropic не обсуждала использование Claude для конкретных операций с Министерством войны», — заявил представитель Anthropic в комментарии для Fortune. «Мы также не обсуждали это с какими-либо отраслевыми партнерами, кроме рутинных технических обсуждений.»
В центре этого спора — контрактные ограничения, регулирующие использование моделей ИИ в оборонных операциях. Генеральный директор Anthropic Дарио Амодеи постоянно выступает за строгие ограничения и регулирование использования ИИ, признавая, что балансировать безопасность и прибыль становится все сложнее. Уже несколько месяцев компания и Министерство обороны ведут напряжённые переговоры о том, как можно использовать Claude в военных операциях.
По контракту с Министерством обороны, Anthropic не разрешает Пентагону использовать свои модели ИИ для массового наблюдения за американцами или в полностью автономных вооружениях. Компания также запретила использование своих технологий в «смертельных» или «кинетических» военных приложениях. Любое прямое участие в активных стрельбах во время рейда на Мадуро, скорее всего, нарушит эти условия.
Среди компаний, предоставляющих ИИ услуги государству, включая OpenAI, Google и xAI, Anthropic занимает выгодную позицию, являясь единственной крупной языковой моделью, разрешенной на секретных сетях Пентагона.
Об этом подчеркнули в заявлении для Fortune. «Claude используется для широкого спектра задач, связанных с разведкой, в правительстве, включая Министерство войны, в соответствии с нашей Политикой использования.»
Компания «нацелена на использование передового ИИ в поддержку национальной безопасности США», — говорится в заявлении. «Мы ведем продуктивные и добросовестные переговоры с Министерством войны о том, как продолжить эту работу и правильно решить эти сложные вопросы.»
Palantir, OpenAI, Google и xAI не сразу ответили на запрос о комментарии.
ИИ идет на войну
Несмотря на то, что Министерство обороны ускоряет интеграцию ИИ в свои операции, только xAI предоставила Департаменту обороны право использовать свои модели «для всех законных целей», в то время как остальные сохраняют ограничения на использование.
Амодеи уже несколько месяцев предупреждает о необходимости защиты пользователей, предлагая Anthropic как безопасную альтернативу OpenAI и Google в условиях отсутствия государственных регуляций. «Меня глубоко беспокоит, что такие решения принимают всего несколько компаний», — говорил он еще в ноябре. Хотя ходили слухи, что Anthropic планирует ослабить ограничения, сейчас компания рискует полностью выпасть из оборонной индустрии.
Высокопоставленный представитель Пентагона сообщил Axios, что министр обороны Пит Хегсэт «близок» к тому, чтобы исключить Anthropic из военной цепочки поставок, что заставит всех, желающих работать с армией, разорвать связи с компанией.
«Это будет огромной головной болью, и мы убедимся, что они заплатят цену за то, что вынудили нас так поступить», — заявил представитель издания.
Объявление о признании компании угрозой для военных поставок — особый статус, обычно предназначенный только для иностранных противников. Ближайшим прецедентом является запрет правительства на Huawei в 2019 году по соображениям национальной безопасности. В случае Anthropic источники сообщили Axios, что военные чиновники давно ищут повод для конфликта с компанией из Сан-Франциско.
Комментарии Пентагона — это последний штрих в публичном конфликте, который накаляется. Правительство утверждает, что установление компаниями этических границ для моделей ИИ было бы излишне ограничивающим, а множество серых зон сделает технологии бесполезными. Пока Пентагон продолжает переговоры с субподрядчиками по ИИ о расширении использования, публичный конфликт превращается в прокси-спор о том, кто будет диктовать правила использования ИИ.
Присоединяйтесь к нам на Саммите по инновациям в рабочем пространстве Fortune 19–20 мая 2026 года в Атланте. Новая эпоха инноваций на рабочем месте уже наступила — и старые сценарии переписываются. На этом эксклюзивном, насыщенном мероприятии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия снова пересекаются, чтобы переопределить будущее работы. Регистрируйтесь сейчас.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Команда Трампа возмущена принципиальной позицией Дарио Амодеи, который настаивает на том, чтобы Министерство обороны не использовало его инструменты ИИ в военных целях
Контракт Anthropic на 200 миллионов долларов с Министерством обороны находится под вопросом после того, как Anthropic якобы выразила озабоченность использованием своей модели Claude в ходе рейда на Николаса Мадуро в январе.
Рекомендуемое видео
«Отношения Министерства войны с Anthropic пересматриваются», — заявил главный пресс-секретарь Пентагона Шон Парнелл в заявлении для Fortune. «Нашей стране необходимо, чтобы наши партнеры были готовы помогать нашим бойцам побеждать в любой битве. В конечном итоге, речь идет о наших войсках и безопасности американского народа.»
Напряженность в последние недели усилилась после того, как, по данным The Hill, высокопоставленный представитель Anthropic якобы связался с руководителем компании Palantir, чтобы поставить под сомнение использование Claude в рейде. Руководитель Palantir интерпретировал этот контакт как неодобрение использования модели в рейде и передал детали обмена в Пентагон. (Президент Трамп заявил, что во время рейда военные использовали оружие «дезориентатор», которое делало вражеское оборудование «неработоспособным».)
«Anthropic не обсуждала использование Claude для конкретных операций с Министерством войны», — заявил представитель Anthropic в комментарии для Fortune. «Мы также не обсуждали это с какими-либо отраслевыми партнерами, кроме рутинных технических обсуждений.»
В центре этого спора — контрактные ограничения, регулирующие использование моделей ИИ в оборонных операциях. Генеральный директор Anthropic Дарио Амодеи постоянно выступает за строгие ограничения и регулирование использования ИИ, признавая, что балансировать безопасность и прибыль становится все сложнее. Уже несколько месяцев компания и Министерство обороны ведут напряжённые переговоры о том, как можно использовать Claude в военных операциях.
По контракту с Министерством обороны, Anthropic не разрешает Пентагону использовать свои модели ИИ для массового наблюдения за американцами или в полностью автономных вооружениях. Компания также запретила использование своих технологий в «смертельных» или «кинетических» военных приложениях. Любое прямое участие в активных стрельбах во время рейда на Мадуро, скорее всего, нарушит эти условия.
Среди компаний, предоставляющих ИИ услуги государству, включая OpenAI, Google и xAI, Anthropic занимает выгодную позицию, являясь единственной крупной языковой моделью, разрешенной на секретных сетях Пентагона.
Об этом подчеркнули в заявлении для Fortune. «Claude используется для широкого спектра задач, связанных с разведкой, в правительстве, включая Министерство войны, в соответствии с нашей Политикой использования.»
Компания «нацелена на использование передового ИИ в поддержку национальной безопасности США», — говорится в заявлении. «Мы ведем продуктивные и добросовестные переговоры с Министерством войны о том, как продолжить эту работу и правильно решить эти сложные вопросы.»
Palantir, OpenAI, Google и xAI не сразу ответили на запрос о комментарии.
ИИ идет на войну
Несмотря на то, что Министерство обороны ускоряет интеграцию ИИ в свои операции, только xAI предоставила Департаменту обороны право использовать свои модели «для всех законных целей», в то время как остальные сохраняют ограничения на использование.
Амодеи уже несколько месяцев предупреждает о необходимости защиты пользователей, предлагая Anthropic как безопасную альтернативу OpenAI и Google в условиях отсутствия государственных регуляций. «Меня глубоко беспокоит, что такие решения принимают всего несколько компаний», — говорил он еще в ноябре. Хотя ходили слухи, что Anthropic планирует ослабить ограничения, сейчас компания рискует полностью выпасть из оборонной индустрии.
Высокопоставленный представитель Пентагона сообщил Axios, что министр обороны Пит Хегсэт «близок» к тому, чтобы исключить Anthropic из военной цепочки поставок, что заставит всех, желающих работать с армией, разорвать связи с компанией.
«Это будет огромной головной болью, и мы убедимся, что они заплатят цену за то, что вынудили нас так поступить», — заявил представитель издания.
Объявление о признании компании угрозой для военных поставок — особый статус, обычно предназначенный только для иностранных противников. Ближайшим прецедентом является запрет правительства на Huawei в 2019 году по соображениям национальной безопасности. В случае Anthropic источники сообщили Axios, что военные чиновники давно ищут повод для конфликта с компанией из Сан-Франциско.
Комментарии Пентагона — это последний штрих в публичном конфликте, который накаляется. Правительство утверждает, что установление компаниями этических границ для моделей ИИ было бы излишне ограничивающим, а множество серых зон сделает технологии бесполезными. Пока Пентагон продолжает переговоры с субподрядчиками по ИИ о расширении использования, публичный конфликт превращается в прокси-спор о том, кто будет диктовать правила использования ИИ.
Присоединяйтесь к нам на Саммите по инновациям в рабочем пространстве Fortune 19–20 мая 2026 года в Атланте. Новая эпоха инноваций на рабочем месте уже наступила — и старые сценарии переписываются. На этом эксклюзивном, насыщенном мероприятии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия снова пересекаются, чтобы переопределить будущее работы. Регистрируйтесь сейчас.