Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Начало фьючерсов
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Те, кто создает роботов для OpenAI, увидели страшное будущее
Автор: Гик-старик
7 марта 2026 года, когда я увидел сообщение о увольнении Caitlin Kalinowski, моя первая реакция была не удивление, а — «наконец-то кто-то говорит и действует».
Kalinowski — руководитель отдела аппаратного и робототехнического инжиниринга в OpenAI, присоединилась всего в ноябре 2024 года, и менее чем за полтора года решила уйти.
Её причина была ясной и тяжёлой — она не могла принять возможные последствия подписания OpenAI контракта с Министерством обороны США, связанные с внутренним контролем и применением автономного оружия.
Это был не обычный утечка талантов. Это человек, лично участвовавший в создании тела для ИИ, который с помощью увольнения заявил миру: она не хочет нести ответственность за то, что может сделать созданное ею.
Чтобы понять причины ухода Kalinowski, нужно вернуться примерно на неделю назад.
28 февраля Сам Алтман объявил, что OpenAI достигла соглашения с Министерством обороны США, позволяющего Пентагону использовать модели ИИ OpenAI в своих закрытых сетях. Вскоре после этого общественность взорвалась.
Интересно, что «эталоном» для этого контракта выступила компания-конкурент Anthropic.
Недавно до этого Anthropic отказалась от предложения Пентагона о подобном сотрудничестве, настаивая на более строгих этических ограничениях в контракте. В ответ министр обороны Пэт Хегсэт прямо в X раскритиковал действия Anthropic, назвав их «учением по высокомерной предательской мастерству», и поддержал приказ Трампа прекратить сотрудничество с этой компанией.
После этого OpenAI взяла на себя этот проект.
Реакция пользователей была очень острой. 28 февраля число удалений ChatGPT выросло на 295% по сравнению с предыдущим днём, движение #QuitGPT быстро охватило соцсети, а сторонники бойкота в течение трёх дней собрали более 2,5 миллиона подписей. Claude начал превосходить ChatGPT по количеству скачиваний в США и занял первое место в списке бесплатных приложений в App Store.
Под давлением Алтман 3 марта публично признал, что «не должен был торопиться с этим контрактом», назвав его «выглядящим как Opportunistic и поспешный», и объявил о пересмотре формулировок, чтобы ясно указать, что «ИИ-системы не должны специально использоваться для внутреннего контроля за американскими гражданами и персоналом».
Однако слово «специально» в этом контексте — сама уязвимость. Юристы Electronic Frontier Foundation прямо указали, что разведывательные и правоохранительные органы часто используют «случайные» или «коммерческие» данные для обхода более строгих правил конфиденциальности — добавление слова «специально» не означает реального ограничения.
Увольнение Kalinowski произошло именно в этом контексте.
Пока большинство обсуждает, «сдает ли OpenAI свои позиции перед правительством», Kalinowski сталкивается с более конкретной и жестокой проблемой — её команда создает роботов.
Аппаратное и робототехническое инжиниринг — это не абстрактная работа по написанию кода и настройке параметров. Это установка рук, ног и глаз на ИИ. Когда сотрудничество OpenAI с Минобороны переходит от «использования моделей» к возможным в будущем «телесным военным приложениям ИИ», её работа меняется.
Исследователи автономного оружия давно предупреждали о наступлении этого дня.
Действующие политики Минобороны США не требуют, чтобы автономное оружие проходило ручное одобрение перед применением силы. Иными словами, контракт OpenAI технически не мешает моделям стать частью системы, которая сама решает, кого убить.
Это не преувеличение. Юрист Джорджтаунского университета по закупкам Jessica Tillipman анализировала пересмотренный контракт и ясно указала, что в нём «отсутствует свобода для OpenAI, подобная Anthropic, запрещающая легитимное использование государством», он лишь гласит, что Пентагон не может использовать технологии OpenAI в нарушении «существующих законов и политик» — а существующее законодательство в области автономного оружия и внутреннего контроля в США имеет огромные пробелы.
Эксперт по управлению из Оксфордского университета также считает, что соглашение OpenAI «вряд ли сможет закрыть структурные пробелы», оставленные в регулировании ИИ-управляемого внутреннего контроля и автономных систем оружия.
Уход Kalinowski — это её личная реакция на эти оценки.
Kalinowski — не первый, кто уходит, и, скорее всего, не последний.
Данные показывают, что уровень увольнений в командах этики и безопасности OpenAI достиг 37%, а большинство объяснений — «несовместимость с ценностями компании» или «неприемлемость использования ИИ в военных целях». Исследователь Аидан МакЛафлин написал внутри компании: «Лично я считаю, что эта сделка не стоит того».
Важно отметить, что волна увольнений совпала с активным расширением коммерческих амбиций компании. Перед этим скандалом с контрактом с Минобороны OpenAI объявила о расширении соглашения с AWS с 38 до 100 миллиардов долларов на срок восемь лет; одновременно пересмотрела свои публичные финансовые цели — к 2030 году ожидается доход свыше 280 миллиардов долларов.
Коммерческий рост идет быстрее, чем команда безопасности — это ключевая ось, которая помогает понять текущую ситуацию OpenAI.
Ценности компании в конечном итоге проявляются в том, кого она удерживает и кого — нет. Когда начинают уходить те, кто больше всего задумывается о «том, как будет использоваться эта технология», структура организации склоняется в определённое направление, и это легко предсказать.
Anthropic выбрала другой путь — отказалась от контракта, приняла гнев Минобороны, но завоевала доверие множества пользователей. В этот период скачивания Claude выросли, что в некотором смысле доказывает: «принципиальный отказ» в бизнесе не обязательно означает проигрыш.
Но Anthropic заплатил за это цену — его временно исключили из списка поставщиков для правительства.
Это и есть настоящая дилемма: ни один выбор не идеален.
Отказ — значит потерять влияние или даже быть исключённым из процесса установления правил. Принятие — значит оправдывать свои технологии за действия, которыми полностью управлять невозможно.
Ответ Kalinowski — уйти.
Это самое честное решение, которое она могла принять.
Если посмотреть шире, значение этого события гораздо больше, чем просто увольнение одного человека.
Слияние ИИ и военной сферы — это вопрос, который рано или поздно придется решать всему сектору. У Пентагона есть бюджет, есть потребности, есть технологические возможности — он не перестанет предлагать ИИ-компаниям новые проекты. А компании, будь то OpenAI, Anthropic или другие игроки, рано или поздно должны дать свой ответ на этот вызов.
Стратегия Алтмана — попытаться принять коммерческую реальность, одновременно устанавливая границы через формулировки в контракте. Но, как отмечают юристы и эксперты по управлению, эти формулировки скорее служат PR-защитой, чем реальными техническими ограничениями.
Гораздо более глубокая проблема — когда модели ИИ внедряются в закрытые сети, начинают участвовать в военных решениях, и внешнему миру невозможно проверить, действительно ли «обещания» выполняются.
Отсутствие прозрачности — это сама по себе крупнейшая опасность.
Kalinowski работала в OpenAI менее полутора лет, и в этот момент решила уйти. Она не публиковала длинных заявлений, не называла имён и не критиковала никого прямо — она просто через действия обозначила свои границы.
В некотором смысле, это сильнее любой политической декларации.