Anthropic подає позов проти уряду США! Вимагає скасувати заборону на «ризики ланцюга постачання» Пентагону

動區BlockTempo

AI 新創公司 Anthropic та конфлікт із урядом США продовжує загострюватися. За повідомленням Reuters, Міністерство оборони США (Пентагон) нещодавно включило Anthropic до списку «ризиків ланцюга постачання» (supply-chain risk), обмеживши використання їхніх AI-технологій у військових контрактах. Anthropic заявила, що таке рішення є безпідставним з юридичної точки зору і вже подала позов до федерального суду з вимогою скасувати відповідне рішення.

(Передісторія: Anthropic та Міноборони США відновили переговори щодо AI: прагнення зберегти співпрацю з Claude, але з дотриманням етичних меж)
(Додатковий фон: Генеральний директор Anthropic різко висловився: контракт OpenAI із Міноборони — це брехня, а Altman маскує себе як посла миру)

Зміст статті

Перемикач

  • Міноборони США включило Anthropic до списку «ризиків ланцюга постачання»
  • Основні питання конфлікту: чи може AI використовуватися для моніторингу та озброєнь
  • Anthropic: вважає рішення безпідставним і готує позов
  • Загострення суперечки щодо військового застосування AI та корпоративної етики

Компанія штучного інтелекту Anthropic та уряд США офіційно увійшли у юридичну боротьбу. Міністерство оборони США оголосило, що Anthropic та їхні AI-моделі визнані «ризиком ланцюга постачання», обмежуючи їх використання у військових контрактах. Anthropic різко заперечує, називаючи таке рішення «безпрецедентним і безпідставним», і вже подала позов до федерального суду з вимогою скасувати цю оцінку та зупинити дії уряду.

Міноборони США включило Anthropic до списку «ризиків ланцюга постачання»

За повідомленням Reuters, Міністерство оборони США офіційно повідомило Anthropic, що їхні компанія та AI-технології визнані «ризиком ланцюга постачання», і це рішення набуло чинності негайно. Такий статус зазвичай застосовується для обмеження потенційних загроз національній безпеці постачальників і може заборонити використання їхніх продуктів у військових закупівлях або контрактах.

На практиці це означає, що підрядники та постачальники, які співпрацюють із військовими США, при виконанні військових проектів можуть бути зобов’язані не використовувати AI-моделі Anthropic, наприклад, їхню відому систему Claude. Зовнішні спостерігачі зазначають, що це вкрай рідкісний випадок, оскільки подібні позначки раніше застосовувалися до іноземних компаній або тих, що вважаються загрозою національній безпеці, а не до американських AI-компаній.

Основні питання конфлікту: чи може AI використовуватися для моніторингу та озброєнь

Головне у цій суперечці — обмеження щодо використання AI-технологій Anthropic. За даними кількох медіа, Anthropic чітко відмовляється дозволяти використання своїх моделей для двох високоризикових сфер:

  1. Повністю автономні озброєння
  2. Масштабний моніторинг громадян США

Однак Міноборони США під час переговорів прагнуло отримати дозвіл на «усі законні застосування» AI-моделей. Обидві сторони так і не дійшли згоди щодо обмежень безпеки, що й призвело до розриву переговорів і запровадження урядом статусу «ризику ланцюга постачання».

Anthropic: вважає рішення безпідставним і готує позов

Генеральний директор Anthropic Dario Amodei заявив, що компанія вважає рішення Міноборони «юридично необґрунтованим» і попередив, що такий крок може створити небезпечний прецедент для урядового тиску на компанії. Anthropic вже подала позов до федерального суду з вимогою скасувати цю оцінку та заборонити уряду виконувати відповідні обмеження.

Компанія зазначає, що «ризик ланцюга постачання» зазвичай застосовувався до іноземних конкурентів, і застосування цього статусу до американської AI-компанії може мати далекосяжні наслідки для технологічної галузі та співпраці з урядом.

Загострення суперечки щодо військового застосування AI та етики корпорацій

Аналізатори відзначають, що ця справа відображає нові виклики для AI-індустрії: коли великі моделі починають проникати у військову та національну безпеку, чи можуть компанії обмежувати уряд у використанні своїх технологій?

Деякі політичні експерти вважають, що якщо уряд зможе застосовувати економічні санкції через корпоративні обмеження безпеки, це послабить автономію технологічних компаній у питаннях безпеки та етики AI. З іншого боку, військові вважають, що AI має стратегічне значення для національної безпеки і не повинно бути надмірних обмежень.

Результат цієї юридичної боротьби може визначити не лише можливість Anthropic відновити співпрацю з урядом США, а й закласти прецедент для майбутніх моделей співпраці між AI-компаніями та державою.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів