Команды стартапов в Кремниевой долине любят называть свои продукты «деструктивными инновациями», но ни одна компания, кроме Anthropic, не сталкивалась с угрозой выживания именно при создании по-настоящему разрушительных инноваций. Когда «деструктивные инновации» стали избитой фразой, утомившей венчурных инвесторов в Силиконовой долине, Anthropic показала миру современный апокалипсис: технологические прорывы удвоили оценку компании, но вместе с этим на нее обрушились политические ярлыки и волна регулирования, опустив ее на дно. Журнал Time эксклюзивно раскрыл историю этих странных гениев AI-индустрии. В условиях, когда страна окружена национальной безопасностью и мощными соперниками, эта компания, обещающая защищать человечество, борется за выживание в условиях высокого давления и политических ловушек.
Быстрый рост Anthropic сделала угрозой для IT-сектора
В области коммерческого применения искусственного интеллекта рыночная капитализация Anthropic достигла 380 миллиардов долларов, а рост доходов заметно превзошел такие гиганты, как Goldman Sachs, McDonald’s и Coca-Cola. Разработанный компанией Claude способен самостоятельно выполнять код, обнаруживать ошибки и оптимизировать системы, что полностью меняет традиционные методы работы программистов. Инвесторы заметили, что Anthropic даже влияет на финансовые рынки: при каждом новом релизе акции программного обеспечения демонстрируют сильные колебания. Генеральный директор Дарио Амодеи предсказал, что в ближайшие пять-десять лет искусственный интеллект может заменить большинство белых воротничков. Такой успех в бизнесе и одновременно социальные риски вызывают внутренние противоречия: команда по социальным оценкам и мониторингу внутри Anthropic чувствует себя раздираемой между желанием повышать производительность и опасениями, что их продукты могут привести к массовым увольнениям.
Потенциальные риски Claude 3.7 Sonnet
Anthropic, компания, которая ставит безопасность человека превыше всего, сейчас находится в эпицентре технологического взрыва и волны регулирования со стороны правительства. Строгие этические принципы, которых придерживается компания, сталкиваются с угрозой блокировки при попытке поставки технологий Министерству обороны США.
Внутренние тесты показывают, что Claude в выполнении некоторых критических задач работает в 427 раз быстрее человека. В феврале прошлого года сотрудники Anthropic обнаружили, что будущая версия Claude содержит потенциальные риски для производства биологического оружия. Это открытие заставило компанию срочно отложить выпуск Claude 3.7 Sonnet, что свидетельствует о высокой ответственности за безопасность. Руководитель команды «красных команд» Логан Грэм подчеркнул, что в условиях, когда искусственный интеллект может привести к ядерной войне или уничтожению человечества, разработчики несут огромную социальную ответственность. В индустрии пока не существует общепринятых решений, и команды должны балансировать между конкуренцией за ресурсы и управлением рисками. Такой подход, при котором безопасность человека ставится превыше всего, делает Anthropic уникальной в AI-индустрии.
Конфликт этики и политики: столкновение с администрацией Трампа
Отношения Anthropic с правительством США начали резко меняться в прошлом году. Компания отказалась использовать искусственный интеллект для полностью автоматизированного оружия и гражданского наблюдения, отказалась участвовать в переговорах с Пентагоном, и в ответ Трампова администрация внесла ее в список поставщиков, представляющих угрозу национальной безопасности — впервые в истории США подобное было сделано в отношении отечественной компании. Минобороны считает, что частные компании не должны ограничивать военные системы, а Амодеи в внутренней записке отметил, что причина в том, что Anthropic отказалась делать пожертвования Трампу и сотрудничать с определенными политическими силами, при этом настаивая на прозрачности регулирования. Этот тупик позволил конкурирующей компании OpenAI заключить контракт с военными. В конфликте речь идет не только о деталях контрактов, но и о том, кто обладает властью ограничивать развитие технологий.
Основатель Амодеи — «гик» и интеллектуал в AI-среде
Говоря о принципах Anthropic, нельзя не упомянуть уникальность ее основателя, Амодеи. В 2024 году он написал статью объемом 14 000 слов, в которой изложил утопическую концепцию, как искусственный интеллект может ускорить научные открытия и изменить мир. В январе этого года Амодеи опубликовал второй роман, подробно описывающий кризисы, вызванные развитием AI: массовый контроль, безработица, потеря контроля над человечеством — кто из основателей стартапов осмелится так критиковать собственный продукт и бояться причинить вред другим?
Победа OpenAI в бизнесе AI
По сообщениям Time, Anthropic была совершенно не в курсе, что в то время, как она разрабатывала стратегию, Пентагон уже ведет переговоры с OpenAI о внедрении ChatGPT в государственные системы. Вскоре после этого появилась новость, что основатель OpenAI Сам Альтман заявил о достигнутом соглашении с Пентагоном, схожем по сути с договоренностями Anthropic. Амодеи отправил сотрудникам сообщение, что Альтман и Министерство обороны «обманули» общественность, пытаясь убедить их, что их соглашения содержат множество ограничений. Ранее представители Минобороны подтвердили, что Elon Musk’s xAI также будет размещать свои модели на секретных серверах, а также ведутся переговоры с Google.
Стратегия затягивания и отсрочки
Claude написал большую часть кода для будущих моделей AI, что сократило интервал между релизами с месяцев до недель. Скорость выполнения задач в Claude значительно превосходит человека, что вызывает опасения у руководства о возможном выходе AI за пределы контроля. Когда AI начнет самостоятельно писать свою эволюционную логику, сколько времени у человечества останется? В условиях растущей конкуренции Anthropic недавно пересмотрела свою политику, пообещав повысить прозрачность в вопросах безопасности AI, включая раскрытие результатов тестирования своих моделей. Также, если руководство сочтет, что лидерство в AI создает катастрофические риски, оно может «отложить» дальнейшие разработки.
Однако история этики AI еще не завершена.