Anthropic подает иск против правительства США! Требует отмены запрета на "риски цепочки поставок" со стороны Пентагона

動區BlockTempo

Конфликт между стартап-компанией Anthropic и правительством США продолжает обостряться. Согласно сообщению Reuters, Министерство обороны США (Пентагон) недавно включило Anthropic в список «рисков в цепочке поставок» (supply-chain risk), ограничив использование их AI-технологий в военных контрактах. Anthropic заявила, что такое решение не имеет юридических оснований и уже подала иск в федеральный суд с требованием отменить соответствующее решение.
(Предыстория: Anthropic возобновила переговоры с Пентагоном по AI — стремясь сохранить сотрудничество по Claude для обороны, при этом придерживаясь этических красных линий)
(Дополнительный фон: Генеральный директор Anthropic резко высказался: контракты OpenAI с Пентагоном — ложь, а Altman притворяется послом мира)

Статья содержит содержание

Переключить

  • Пентагон включил Anthropic в список «рисков в цепочке поставок»
  • Основные точки конфликта: можно ли использовать AI для слежки и оружия
  • Anthropic: решение о «недостаточности юридических оснований» — подача иска
  • Усиление спора о военном применении AI и корпоративной этике

Конфликт между компанией по разработке искусственного интеллекта Anthropic и правительством США официально перешагнул в юридическую плоскость. Министерство обороны США недавно объявило, что включило Anthropic в список «рисков в цепочке поставок», ограничив использование их AI-моделей в военных контрактах. В ответ Anthropic резко возразила, заявив, что такое решение «беспрецедентно и не имеет юридических оснований», и уже подала иск в федеральный суд с требованием отменить это решение и запретить правительству реализовывать соответствующие меры.

Пентагон включил Anthropic в список «рисков в цепочке поставок»

По информации Reuters, Министерство обороны США официально уведомило Anthropic о признании компании и её AI-технологий «рисками в цепочке поставок», решение вступило в силу немедленно. Такой статус обычно используют для ограничения поставщиков, которые могут представлять угрозу национальной безопасности, а также могут запрещать их продукцию к использованию в оборонных закупках или военных контрактах.

На практике это означает, что подрядчики и поставщики, сотрудничающие с американскими военными, при выполнении проектов Министерства обороны могут быть вынуждены отказаться от использования AI-моделей Anthropic, например, их известной системы Claude. Эксперты отмечают, что это крайне редкий случай, поскольку подобные статусы ранее применялись в основном к иностранным компаниям или поставщикам, считающимся угрозой национальной безопасности, а не к американским разработчикам AI.

Основные точки конфликта: можно ли использовать AI для слежки и оружия

Ключевым вопросом этого спора является ограничение использования AI-технологий Anthropic. Согласно сообщениям нескольких СМИ, Anthropic ясно отказалась допускать использование своих моделей для двух категорий высокорискованных целей:

  1. Полностью автономные системы оружия
  2. Масштабное наблюдение за гражданами США

Однако Министерство обороны США в ходе переговоров с компанией выразило желание, чтобы AI-модели могли использоваться «для всех законных целей». В результате стороны так и не достигли согласия по вопросам безопасности и ограничения использования, что привело к разрыву переговоров и последующему признанию рисков в цепочке поставок.

Anthropic: решение о «недостаточности юридических оснований» — подача иска

Генеральный директор Anthropic Даріо Амодеи заявил, что компания считает решение Минобороны «незаконным» и предупреждает, что такой шаг может создать опасный прецедент для давления правительства на бизнес. Anthropic уже подала иск в федеральный суд с требованием отменить это решение и запретить правительству реализовывать соответствующие ограничения.

Компания указывает, что статус «рисков в цепочке поставок» обычно применялся к иностранным конкурентам, и применение его к американской AI-компании может иметь далеко идущие последствия для всей технологической отрасли и модели сотрудничества с государством.

Усиление спора о военном применении AI и этике компаний

Аналитики отмечают, что этот случай отражает новые вызовы, с которыми сталкивается индустрия AI: смогут ли крупные модели, начинающие проникать в военную и национальную безопасность, ограничивать возможности правительства в использовании их технологий?

Некоторые эксперты считают, что если правительство сможет вводить экономические санкции против компаний за установленные ими ограничения по безопасности, это может ослабить автономию технологических компаний в вопросах безопасности и этики AI. В то же время военные считают, что AI-технологии имеют стратегическое значение для национальной безопасности и не должны подвергаться чрезмерным ограничениям.

Результат этого судебного разбирательства может определить не только возможность восстановления сотрудничества Anthropic с правительством США, но и установить важный прецедент для будущих моделей взаимодействия AI-компаний и государства.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев