Ті, хто створює роботів для OpenAI, побачили страшне майбутнє

robot
Генерація анотацій у процесі

作者:极客老友

2026 年 3 月 7 日,當 я побачив новину про звільнення Caitlin Kalinowski, моя перша реакція була не здивування, а — «нарешті хтось говорить і діє».

Kalinowski — керівниця апаратного забезпечення та робототехніки в OpenAI, приєдналася лише в листопаді 2024 року і за менше ніж півтора року вирішила піти.

Її причина була прямою і серйозною — вона не могла прийняти можливі наслідки контракту OpenAI з Міністерством оборони США, зокрема внутрішній контроль і застосування автономної зброї.

Це не просто втеча кадрів. Це людина, яка сама брала участь у створенні AI-тіла, повідомляє світу: вона не хоче нести відповідальність за те, що може зробити її створення.

Щоб зрозуміти, чому Kalinowski пішла, потрібно повернутися приблизно на тиждень назад.

28 лютого Сам Альтман оголосив, що OpenAI уклала угоду з Міністерством оборони США, яка дозволяє Пентагону використовувати моделі AI OpenAI у своїх закритих мережах. Це викликало бурхливу реакцію громадськості.

Цікаво, що «орієнтиром» цієї угоди стала компанія Anthropic.

Незадовго до цього Anthropic відмовилася від подібної співпраці з Пентагоном, наполягаючи на більш жорстких етичних обмеженнях у договорі. У відповідь міністр оборони Pete Hegseth прямо на X критикував Anthropic, називаючи їхню поведінку «зарозумілою зрадою», і підтримав рішення Трампа припинити співпрацю з цією компанією.

Після цього OpenAI взяла цю угоду на себе.

Реакція користувачів була дуже гострою. 28 лютого кількість видалень ChatGPT зросла на 295% порівняно з попереднім днем, рух #QuitGPT швидко поширився у соцмережах, і за три дні понад 2,5 мільйонів людей підтримали бойкот. Claude почав перевершувати ChatGPT за кількістю завантажень у США і став лідером у рейтингу безкоштовних додатків Apple App Store.

Під тиском Альтман 3 березня відкрито визнав, що «не слід було поспішати з цим договором», назвавши його «здається, спекулятивним і необдуманим», і оголосив про перегляд формулювань, щоб чітко зазначити, що «AI системи не повинні використовуватися навмисно для внутрішнього контролю американських громадян і персоналу».

Однак слово «навмисно» — це сама по собі прогалина. Юридичний радник Electronic Frontier Foundation прямо вказав, що розвідувальні та правоохоронні органи часто використовують «випадкові» або «комерційно куплені» дані для обходу більш строгих правил приватності — додавання слова «навмисно» не означає справжнього обмеження.

Звільнення Kalinowski відбулося саме в цьому контексті.

01 Вона бачить більше конкретики, ніж ми уявляємо

Поки більшість обговорює «чи йде OpenAI на компроміс із урядом», Kalinowski стикається з більш конкретною і жорсткою проблемою — її команда створює роботів.

Апаратне забезпечення і робототехніка — це не просто написання коду і налаштування параметрів. Це процес «встановлення рук, ніг і очей» для AI. Коли співпраця OpenAI з Міноборони переходить від «використання моделей» до потенційного застосування «тілесного AI у військових цілях», її робота змінюється.

Дослідники автономної зброї давно попереджали про цей день.

Заразішні політики Міноборони США не вимагають попереднього людського схвалення для застосування автономної зброї. Іншими словами, контракт OpenAI технічно не забороняє його моделям стати частиною системи, яка сама вирішує, кого вбити.

Це не перебільшення. Юристка Джессіка Тілліпман з Джорджтаунського університету аналізувала оновлений контракт і зазначила, що його формулювання «не дає OpenAI такого ж свободи, як Anthropic, щоб заборонити легальне використання урядом», а лише забороняє Пентагону використовувати технології OpenAI у порушення «діючого законодавства і політики». Але існуючі закони щодо регулювання автономної зброї мають значні прогалини.

Голова дослідницької групи з управління в Оксфордському університеті також вважає, що угода OpenAI «не здатна заповнити» структурні прогалини у регулюванні AI-управління внутрішнім контролем і автономною зброєю.

Звільнення Kalinowski — це її особиста відповідь на цю ситуацію.

02 Що відбувається всередині OpenAI

Kalinowski — не перша, і, ймовірно, не остання, хто йде.

За даними, рівень плинності в командах етики та безпеки AI вже досягає 37%, і більшість звільнень пояснюють «несумісністю з цінностями компанії» або «нездатністю прийняти військове застосування AI». На внутрішніх форумах дослідник Аїдан МакЛафлін писав: «Я особисто вважаю, що ця угода не варта того».

Варто зазначити, що ця хвиля звільнень припала саме на період швидкого розширення бізнесу OpenAI. Перед скандалом із контрактом з Міноборони компанія оголосила про розширення угоди з AWS з 380 мільярдів до 1000 мільярдів доларів на 8 років; також вона переглянула свої фінансові цілі і прогнозує, що до 2030 року доходи перевищать 280 мільярдів доларів.

Комерційне зростання і постійний відтік безпекових фахівців — це ключові фактори, що визначають нинішню ситуацію OpenAI.

Цінність компанії в кінцевому підсумку визначається тим, кого вона утримує і кого — ні. Коли найзацікавленіші у тому, «як саме використовуватиметься ця технологія», починають йти, важко не зробити висновок, у який бік рухається організація.

Anthropic обрала інший шлях — відмовилася від контракту, витримала гнів уряду, але здобула довіру багатьох користувачів. У цей час Claude почав перевершувати ChatGPT за кількістю завантажень, що в певному сенсі доводить, що «принципова відмова» може бути не обов’язково програшною стратегією.

Проте Anthropic заплатила цим цінну ціну — її тимчасово вигнали з ринку.

Це і є справжня дилема: жоден варіант не ідеальний.

Відмовлятися — означає ризикувати втратити вплив і бути виключеним із правил. Приймати — означає підтримувати свої технології для дій, якими ви не можете повністю контролювати.

Калинowski обрала третій шлях — піти.

Це найчесніший вчинок, який вона могла зробити.

03 Битва за душу Кремнієвої долини тільки починається

Якщо подивитися ширше, ця подія має значення не лише для однієї людини.

Злиття AI і військових технологій — це питання, яке рано чи пізно доведеться вирішити всій галузі. У Міноборони США є бюджет, потреби і технології, щоб продовжувати залучати AI-компанії. А компанії — будь то OpenAI, Anthropic або інші — рано чи пізно мають дати свою відповідь на цю дилему.

Стратегія Альтмана — намагатися поєднати прийняття комерційної реальності з обмеженнями контракту. Але, як зазначають кілька юристів і експертів з управління, ці формулювання більше схожі на PR-захист, ніж на реальні технічні обмеження.

Головне питання — коли AI-моделі почнуть використовуватися у військових цілях, і коли вони почнуть брати участь у військових рішеннях, ніхто ззовні не зможе перевірити, чи дотримуються обіцянки.

Відсутність прозорості — це сама по собі найбільша небезпека.

Kalinowski, яка працювала у OpenAI менше півтора років, у цей момент вирішила піти. Вона не зробила довгих заяв, не називала імен і не критикувала нікого відкрито, а просто своїм вчинком окреслила межі.

У цьому сенсі її вчинок має більшу силу, ніж будь-яка політична заява.

Апаратне забезпечення і робототехніка — це колись один із найзахопливіших фронтирів Кремнієвої долини. Коли Kalinowski йде, вона залишає не лише резюме, а й питання всім, хто ще залишився у цій галузі:

До якої межі ви готові нести відповідальність за створене вами?

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити