Спір виник через контракт приблизно на $200 мільйонів, який Anthropic підписала для використання своєї моделі Claude AI у засобах секретності для військових США.
Anthropic встановила два ключові "червоні лінії":
- Щоб штучний інтелект не використовувався для масового спостереження за американськими громадянами.
- Щоб він не використовувався для **повністю автономних озброєнь** (озброєнь, що приймають смертельні рішення без людського контролю)
Однак Пентагон вимагав необмеженого використання ШІ для "усіх законних цілей" і не приймав ці обмеження. Міністр оборони Піт Гегсетх змусив компанію дотримуватися цього до кінця п’ятниці (26 лютого 2026).
Коли угода не була досягнута:
- Президент Трамп наказав усім федеральним агентствам **негайно припинити** використання технологій Anthropic (з наданням Пентагону 6-місячного перехідного періоду).
- Гегсетх оголосив Anthropic "ризиком для національної безпеки у ланцюзі постачання" — санкцію, зазвичай застосовувану проти іноземних загроз; вона також забороняє військовим підрядникам вести бізнес із компанією.
Anthropic назвала це рішення "юридично недійсним і прецедентним" і оголосила, що звернеться до суду. Генеральний директор Даріо Амодей підкреслив, що він не відступить від своєї позиції.
Зрештою, Пентагон підписав нову угоду з OpenAI, прийнявши подібні обмеження. Ця подія стала важливим поворотним моментом щодо того, хто має встановлювати межі військового використання ШІ — компанії чи уряд?
Коротко: те, що починалося як обговорення питань безпеки, переросло у політичний тиск і санкції. Конфлікт між етикою ШІ та національною безпекою триває. #TrumpordersfederalbanonAnthropicAI
Переглянути оригінал
User_any
#TrumpordersfederalbanonAnthropicAI Президент США Дональд Трамп заборонив технології штучного інтелекту Anthropic усім федеральним агентствам. У заяві на своєму акаунті у Truth Social Трамп описав Anthropic як «радикально ліву, хитру компанію» і, після конфлікту з Пентагоном, сказав: «Припиніть усі її використання негайно, нам це не потрібно, ми цього не хочемо.» Пентагон оголосив Anthropic «національним ризиком безпеки» після того, як компанія намагалася обмежити свої моделі ШІ для військових цілей (зокрема, без обмежень), надавши федеральним агентствам шести місяців на перехідний період. Це рішення призвело до втрати Anthropic урядових контрактів; конкуренти (такі як OpenAI) оголосили нові угоди з Пентагоном.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Деталі пентагону-антропічного спору:
Спір виник через контракт приблизно на $200 мільйонів, який Anthropic підписала для використання своєї моделі Claude AI у засобах секретності для військових США.
Anthropic встановила два ключові "червоні лінії":
- Щоб штучний інтелект не використовувався для масового спостереження за американськими громадянами.
- Щоб він не використовувався для **повністю автономних озброєнь** (озброєнь, що приймають смертельні рішення без людського контролю)
Однак Пентагон вимагав необмеженого використання ШІ для "усіх законних цілей" і не приймав ці обмеження. Міністр оборони Піт Гегсетх змусив компанію дотримуватися цього до кінця п’ятниці (26 лютого 2026).
Коли угода не була досягнута:
- Президент Трамп наказав усім федеральним агентствам **негайно припинити** використання технологій Anthropic (з наданням Пентагону 6-місячного перехідного періоду).
- Гегсетх оголосив Anthropic "ризиком для національної безпеки у ланцюзі постачання" — санкцію, зазвичай застосовувану проти іноземних загроз; вона також забороняє військовим підрядникам вести бізнес із компанією.
Anthropic назвала це рішення "юридично недійсним і прецедентним" і оголосила, що звернеться до суду. Генеральний директор Даріо Амодей підкреслив, що він не відступить від своєї позиції.
Зрештою, Пентагон підписав нову угоду з OpenAI, прийнявши подібні обмеження. Ця подія стала важливим поворотним моментом щодо того, хто має встановлювати межі військового використання ШІ — компанії чи уряд?
Коротко: те, що починалося як обговорення питань безпеки, переросло у політичний тиск і санкції. Конфлікт між етикою ШІ та національною безпекою триває.
#TrumpordersfederalbanonAnthropicAI
Президент США Дональд Трамп заборонив технології штучного інтелекту Anthropic усім федеральним агентствам. У заяві на своєму акаунті у Truth Social Трамп описав Anthropic як «радикально ліву, хитру компанію» і, після конфлікту з Пентагоном, сказав: «Припиніть усі її використання негайно, нам це не потрібно, ми цього не хочемо.»
Пентагон оголосив Anthropic «національним ризиком безпеки» після того, як компанія намагалася обмежити свої моделі ШІ для військових цілей (зокрема, без обмежень), надавши федеральним агентствам шести місяців на перехідний період. Це рішення призвело до втрати Anthropic урядових контрактів; конкуренти (такі як OpenAI) оголосили нові угоди з Пентагоном.