AI 新創公司 Anthropic та конфлікт із урядом США продовжує загострюватися. За повідомленням Reuters, Міністерство оборони США (Пентагон) нещодавно включило Anthropic до списку «ризиків ланцюга постачання» (supply-chain risk), обмеживши використання їхніх AI-технологій у військових контрактах. Anthropic заявила, що таке рішення є безпідставним з юридичної точки зору і вже подала позов до федерального суду з вимогою скасувати відповідне рішення.
(Передісторія: Anthropic та Міноборони США відновили переговори щодо AI: прагнення зберегти співпрацю з Claude, але з дотриманням етичних меж)
(Додатковий фон: Генеральний директор Anthropic різко висловився: контракт OpenAI із Міноборони — це брехня, а Altman маскує себе як посла миру)
Зміст статті
Перемикач
Компанія штучного інтелекту Anthropic та уряд США офіційно увійшли у юридичну боротьбу. Міністерство оборони США оголосило, що Anthropic та їхні AI-моделі визнані «ризиком ланцюга постачання», обмежуючи їх використання у військових контрактах. Anthropic різко заперечує, називаючи таке рішення «безпрецедентним і безпідставним», і вже подала позов до федерального суду з вимогою скасувати цю оцінку та зупинити дії уряду.
За повідомленням Reuters, Міністерство оборони США офіційно повідомило Anthropic, що їхні компанія та AI-технології визнані «ризиком ланцюга постачання», і це рішення набуло чинності негайно. Такий статус зазвичай застосовується для обмеження потенційних загроз національній безпеці постачальників і може заборонити використання їхніх продуктів у військових закупівлях або контрактах.
На практиці це означає, що підрядники та постачальники, які співпрацюють із військовими США, при виконанні військових проектів можуть бути зобов’язані не використовувати AI-моделі Anthropic, наприклад, їхню відому систему Claude. Зовнішні спостерігачі зазначають, що це вкрай рідкісний випадок, оскільки подібні позначки раніше застосовувалися до іноземних компаній або тих, що вважаються загрозою національній безпеці, а не до американських AI-компаній.
Головне у цій суперечці — обмеження щодо використання AI-технологій Anthropic. За даними кількох медіа, Anthropic чітко відмовляється дозволяти використання своїх моделей для двох високоризикових сфер:
Однак Міноборони США під час переговорів прагнуло отримати дозвіл на «усі законні застосування» AI-моделей. Обидві сторони так і не дійшли згоди щодо обмежень безпеки, що й призвело до розриву переговорів і запровадження урядом статусу «ризику ланцюга постачання».
Генеральний директор Anthropic Dario Amodei заявив, що компанія вважає рішення Міноборони «юридично необґрунтованим» і попередив, що такий крок може створити небезпечний прецедент для урядового тиску на компанії. Anthropic вже подала позов до федерального суду з вимогою скасувати цю оцінку та заборонити уряду виконувати відповідні обмеження.
Компанія зазначає, що «ризик ланцюга постачання» зазвичай застосовувався до іноземних конкурентів, і застосування цього статусу до американської AI-компанії може мати далекосяжні наслідки для технологічної галузі та співпраці з урядом.
Аналізатори відзначають, що ця справа відображає нові виклики для AI-індустрії: коли великі моделі починають проникати у військову та національну безпеку, чи можуть компанії обмежувати уряд у використанні своїх технологій?
Деякі політичні експерти вважають, що якщо уряд зможе застосовувати економічні санкції через корпоративні обмеження безпеки, це послабить автономію технологічних компаній у питаннях безпеки та етики AI. З іншого боку, військові вважають, що AI має стратегічне значення для національної безпеки і не повинно бути надмірних обмежень.
Результат цієї юридичної боротьби може визначити не лише можливість Anthropic відновити співпрацю з урядом США, а й закласти прецедент для майбутніх моделей співпраці між AI-компаніями та державою.