#TrumpordersfederalbanonAnthropicAI


Трамп приказывает федеральный запрет на Anthropic AI: противостояние Big Tech и правительства США
В драматическом обострении конфликта между Вашингтоном и сектором искусственного интеллекта президент Дональд Трамп распорядился немедленно прекратить использование продуктов компании Anthropic, известной своими моделями Claude. Этот приказ, изданный 27 февраля 2026 года, последовал за спором между Пентагоном и компанией по вопросам этических гарантий ИИ и политики использования в национальной безопасности. Решение включает немедленную остановку работы во всех гражданских агентствах и шестимесячный переходный период для Министерства обороны.
В центре конфликта — отказ Anthropic убрать определённые этические ограничения, встроенные в её системы ИИ. По словам генерального директора Дарьо Амодеи, компания отклонила запросы Пентагона, которые позволили бы использовать её модели ИИ для массового внутреннего наблюдения или полностью автономного развертывания оружия. Амодеи публично заявил, что компания «не может добросовестно согласиться с их требованиями», аргументируя, что удаление этих защитных мер подорвало бы основные принципы безопасности компании.
Администрация отреагировала решительно. Помимо приказа агентствам прекратить использование продуктов Anthropic, министр обороны обозначил компанию как «риск для цепочки поставок национальной безопасности». Эта классификация фактически запрещает подрядчикам оборонной промышленности и поставщикам, связанным с Пентагоном, вести бизнес с Anthropic. Такая маркировка необычна для технологической компании, базирующейся в США, и чаще ассоциируется с иностранными субъектами, считающимися угрозами безопасности.
С точки зрения правительства, утверждают, что приоритеты национальной обороны не могут быть ограничены корпоративной политикой. Пентагон настаивает, что инструменты ИИ должны оставаться гибкими для законных военных и разведывательных операций. Сторонники решения администрации считают, что частные компании не должны диктовать операционные границы для оборонных агентств, особенно когда речь идет о национальной безопасности.
Однако Anthropic формулирует свою позицию иначе. Компания позиционирует себя как часть нового поколения разработчиков ИИ, которые ставят во главу угла согласование, безопасность и этические ограничения. Она утверждает, что удаление защитных мер против массового наблюдения и автономного принятия смертельных решений перейдет красную линию с долгосрочными последствиями для общества. Представители компании заявили, что могут оспорить федеральную маркировку через судебные инстанции, считая её беспрецедентной и потенциально вредной для инновационных партнерств между правительством и частным сектором.
Более широкие последствия выходят далеко за рамки одного спора о контракте. Этот эпизод подчеркивает растущее структурное противоречие между этикой ИИ и государственным суверенитетом. По мере того как искусственный интеллект всё больше интегрируется в системы обороны, кибербезопасности, разведывательного анализа и предиктивного наблюдения, вопрос о том, кто определяет допустимое использование, становится всё более актуальным. Правительства стремятся к операционной гибкости. Компании-разработчики ИИ всё чаще требуют обязательных этических ограничений.
Обозреватели рынков и технологий сейчас внимательно следят за тем, как этот конфликт изменит стратегию закупок ИИ на федеральном уровне. Если другие поставщики ИИ заменят Anthropic в государственных системах, это может ускорить консолидацию среди поставщиков ИИ, связанных с обороной. С другой стороны, если судебные иски будут успешными, это может установить прецедент для того, насколько далеко исполнительная власть может расширять свои полномочия, маркируя внутренние технологические компании как риски для цепочки поставок.
Это противостояние, возможно, в конечном итоге определит новую эпоху в управлении ИИ. Оно вызывает фундаментальную дискуссию: должны ли передовые инструменты ИИ подпадать под корпоративные этические рамки даже в вопросах национальной обороны, или суверенные правительства должны сохранять неограниченную власть над своими технологическими активами? Ответ, вероятно, сформирует не только политику США в области ИИ, но и глобальные стандарты того, как искусственный интеллект пересекается с военной и разведывательной мощью в будущем.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 10
  • Репост
  • Поделиться
комментарий
0/400
Ryakpandavip
· 35м назад
Пик 2026 года 👊
Посмотреть ОригиналОтветить0
SheenCryptovip
· 1ч назад
GOGOGO 2026 👊
Посмотреть ОригиналОтветить0
SheenCryptovip
· 1ч назад
На Луну 🌕
Посмотреть ОригиналОтветить0
ShainingMoonvip
· 2ч назад
На Луну 🌕
Посмотреть ОригиналОтветить0
HighAmbitionvip
· 2ч назад
GOGOGO 2026 👊
Посмотреть ОригиналОтветить0
SoominStarvip
· 3ч назад
Ape In 🚀
Ответить0
AylaShinexvip
· 5ч назад
На Луну 🌕
Посмотреть ОригиналОтветить0
MoonGirlvip
· 6ч назад
Ape In 🚀
Ответить0
MoonGirlvip
· 6ч назад
На Луну 🌕
Посмотреть ОригиналОтветить0
Yunnavip
· 6ч назад
GOGOGO 2026 👊
Посмотреть ОригиналОтветить0
Подробнее
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.34KДержатели:2
    0.00%
  • РК:$2.29KДержатели:1
    0.00%
  • РК:$0.1Держатели:1
    0.00%
  • РК:$2.34KДержатели:2
    0.14%
  • РК:$2.33KДержатели:2
    0.07%
  • Закрепить