Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Запуск ф'ючерсів
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Ті, хто створює роботів для OpenAI, побачили страшне майбутнє
作者:极客老友
2026 年 3 月 7 日,當 я побачив новину про звільнення Caitlin Kalinowski, моя перша реакція була не здивування, а — «нарешті хтось говорить і діє».
Kalinowski — керівниця апаратного забезпечення та робототехніки в OpenAI, приєдналася лише в листопаді 2024 року і за менше ніж півтора року вирішила піти.
Її причина була прямою і серйозною — вона не могла прийняти можливі наслідки контракту OpenAI з Міністерством оборони США, зокрема внутрішній контроль і застосування автономної зброї.
Це не просто втеча кадрів. Це людина, яка сама брала участь у створенні AI-тіла, повідомляє світу: вона не хоче нести відповідальність за те, що може зробити її створення.
Щоб зрозуміти, чому Kalinowski пішла, потрібно повернутися приблизно на тиждень назад.
28 лютого Сам Альтман оголосив, що OpenAI уклала угоду з Міністерством оборони США, яка дозволяє Пентагону використовувати моделі AI OpenAI у своїх закритих мережах. Це викликало бурхливу реакцію громадськості.
Цікаво, що «орієнтиром» цієї угоди стала компанія Anthropic.
Незадовго до цього Anthropic відмовилася від подібної співпраці з Пентагоном, наполягаючи на більш жорстких етичних обмеженнях у договорі. У відповідь міністр оборони Pete Hegseth прямо на X критикував Anthropic, називаючи їхню поведінку «зарозумілою зрадою», і підтримав рішення Трампа припинити співпрацю з цією компанією.
Після цього OpenAI взяла цю угоду на себе.
Реакція користувачів була дуже гострою. 28 лютого кількість видалень ChatGPT зросла на 295% порівняно з попереднім днем, рух #QuitGPT швидко поширився у соцмережах, і за три дні понад 2,5 мільйонів людей підтримали бойкот. Claude почав перевершувати ChatGPT за кількістю завантажень у США і став лідером у рейтингу безкоштовних додатків Apple App Store.
Під тиском Альтман 3 березня відкрито визнав, що «не слід було поспішати з цим договором», назвавши його «здається, спекулятивним і необдуманим», і оголосив про перегляд формулювань, щоб чітко зазначити, що «AI системи не повинні використовуватися навмисно для внутрішнього контролю американських громадян і персоналу».
Однак слово «навмисно» — це сама по собі прогалина. Юридичний радник Electronic Frontier Foundation прямо вказав, що розвідувальні та правоохоронні органи часто використовують «випадкові» або «комерційно куплені» дані для обходу більш строгих правил приватності — додавання слова «навмисно» не означає справжнього обмеження.
Звільнення Kalinowski відбулося саме в цьому контексті.
01 Вона бачить більше конкретики, ніж ми уявляємо
Поки більшість обговорює «чи йде OpenAI на компроміс із урядом», Kalinowski стикається з більш конкретною і жорсткою проблемою — її команда створює роботів.
Апаратне забезпечення і робототехніка — це не просто написання коду і налаштування параметрів. Це процес «встановлення рук, ніг і очей» для AI. Коли співпраця OpenAI з Міноборони переходить від «використання моделей» до потенційного застосування «тілесного AI у військових цілях», її робота змінюється.
Дослідники автономної зброї давно попереджали про цей день.
Заразішні політики Міноборони США не вимагають попереднього людського схвалення для застосування автономної зброї. Іншими словами, контракт OpenAI технічно не забороняє його моделям стати частиною системи, яка сама вирішує, кого вбити.
Це не перебільшення. Юристка Джессіка Тілліпман з Джорджтаунського університету аналізувала оновлений контракт і зазначила, що його формулювання «не дає OpenAI такого ж свободи, як Anthropic, щоб заборонити легальне використання урядом», а лише забороняє Пентагону використовувати технології OpenAI у порушення «діючого законодавства і політики». Але існуючі закони щодо регулювання автономної зброї мають значні прогалини.
Голова дослідницької групи з управління в Оксфордському університеті також вважає, що угода OpenAI «не здатна заповнити» структурні прогалини у регулюванні AI-управління внутрішнім контролем і автономною зброєю.
Звільнення Kalinowski — це її особиста відповідь на цю ситуацію.
02 Що відбувається всередині OpenAI
Kalinowski — не перша, і, ймовірно, не остання, хто йде.
За даними, рівень плинності в командах етики та безпеки AI вже досягає 37%, і більшість звільнень пояснюють «несумісністю з цінностями компанії» або «нездатністю прийняти військове застосування AI». На внутрішніх форумах дослідник Аїдан МакЛафлін писав: «Я особисто вважаю, що ця угода не варта того».
Варто зазначити, що ця хвиля звільнень припала саме на період швидкого розширення бізнесу OpenAI. Перед скандалом із контрактом з Міноборони компанія оголосила про розширення угоди з AWS з 380 мільярдів до 1000 мільярдів доларів на 8 років; також вона переглянула свої фінансові цілі і прогнозує, що до 2030 року доходи перевищать 280 мільярдів доларів.
Комерційне зростання і постійний відтік безпекових фахівців — це ключові фактори, що визначають нинішню ситуацію OpenAI.
Цінність компанії в кінцевому підсумку визначається тим, кого вона утримує і кого — ні. Коли найзацікавленіші у тому, «як саме використовуватиметься ця технологія», починають йти, важко не зробити висновок, у який бік рухається організація.
Anthropic обрала інший шлях — відмовилася від контракту, витримала гнів уряду, але здобула довіру багатьох користувачів. У цей час Claude почав перевершувати ChatGPT за кількістю завантажень, що в певному сенсі доводить, що «принципова відмова» може бути не обов’язково програшною стратегією.
Проте Anthropic заплатила цим цінну ціну — її тимчасово вигнали з ринку.
Це і є справжня дилема: жоден варіант не ідеальний.
Відмовлятися — означає ризикувати втратити вплив і бути виключеним із правил. Приймати — означає підтримувати свої технології для дій, якими ви не можете повністю контролювати.
Калинowski обрала третій шлях — піти.
Це найчесніший вчинок, який вона могла зробити.
03 Битва за душу Кремнієвої долини тільки починається
Якщо подивитися ширше, ця подія має значення не лише для однієї людини.
Злиття AI і військових технологій — це питання, яке рано чи пізно доведеться вирішити всій галузі. У Міноборони США є бюджет, потреби і технології, щоб продовжувати залучати AI-компанії. А компанії — будь то OpenAI, Anthropic або інші — рано чи пізно мають дати свою відповідь на цю дилему.
Стратегія Альтмана — намагатися поєднати прийняття комерційної реальності з обмеженнями контракту. Але, як зазначають кілька юристів і експертів з управління, ці формулювання більше схожі на PR-захист, ніж на реальні технічні обмеження.
Головне питання — коли AI-моделі почнуть використовуватися у військових цілях, і коли вони почнуть брати участь у військових рішеннях, ніхто ззовні не зможе перевірити, чи дотримуються обіцянки.
Відсутність прозорості — це сама по собі найбільша небезпека.
Kalinowski, яка працювала у OpenAI менше півтора років, у цей момент вирішила піти. Вона не зробила довгих заяв, не називала імен і не критикувала нікого відкрито, а просто своїм вчинком окреслила межі.
У цьому сенсі її вчинок має більшу силу, ніж будь-яка політична заява.
Апаратне забезпечення і робототехніка — це колись один із найзахопливіших фронтирів Кремнієвої долини. Коли Kalinowski йде, вона залишає не лише резюме, а й питання всім, хто ще залишився у цій галузі:
До якої межі ви готові нести відповідальність за створене вами?