Шутка о "двух книгах для обучения ИИ" как раз показывает, что решающую роль играет вычислительная мощность

robot
Генерация тезисов в процессе

Эта шутка, повернувшись, разоблачает иллюзию «минимальных данных»

Илон Маск пошутил, что Grok обучали, используя «всего эти две книги», «всё готово» — типичная мушковская подколка. Он высмеивает ту самую фантазию: будто можно создать конкурентоспособный ИИ без колоссальных вычислительных мощностей. Реальность в том, что xAI ведёт обучение на огромном GPU-кластере. Какие именно это две книги, он не уточнил (впрочем, в этом на самом деле нет принципиальной разницы), но смысл предельно ясен: в областях, где по-прежнему доминирует закон масштаба, он насмехается над чрезмерно упрощёнными нарративами.

Этот твит вызвал полярные реакции. Одни увидели в нём намёк на эффективное обучение; другие поняли, что это больше похоже на отвлечение внимания — на деле xAI в крупном масштабе продвигает reinforcement learning на собственной инфраструктуре Colossus. Результаты Grok (например, у Grok 3 Think на AIME — 93.3%) получаются благодаря вычислительным мощностям и парадигме обучения, а не потому что «прочитали две книги в мягкой обложке».

  • Многие неправильно прочитали эту шутку: в ряде ответов это интерпретируют как сигнал о прорыве в эффективности данных. Нет, это не так. Публичная методология xAI строится вокруг расширения RL ради повышения способностей к рассуждению, а не вокруг сжатия обучающих данных.
  • Серьёзные эксперты не подхватили: из-за отсутствия отклика со стороны топ-исследователей вроде Karpathy и LeCun тезис про «минимальные данные» не смог выйти за рамки обсуждений. Одна-единственная публикация не может подтвердить отраслевой консенсус, когда доказательств нет.
  • Больше всего проблему объясняют бенчмарки: Grok лидирует на GPQA (84.6%) и LiveCodeBench (79.4%). Это стоит проследить до эффективности, обусловленной инфраструктурой: примерно 6-кратное улучшение эффективности — это про более эффективное развёртывание FLOPs, а не про то, что надо читать меньше книг.

Победа за вычислениями: «данные-минимализм» не выдерживают проверку

Распространение этого твита вскрыло разрыв между «лозунгами, которые легко становятся вирусными» («всего две книги!») и «рычагами, которые действительно строят сильные модели» (массовое обучение на сверхбольших кластерах). По мере того как внешние взгляды всё чаще обращаются к соблюдению правил по обучающим данным и вопросам утечек — например, недавняя запись Stanford о том, что модели пересказывают защищённые авторским правом романы, — это становится ещё более критичным.

xAI позиционирует Grok 4 как максимально высокий уровень агентного рассуждения, достигаемый за счёт применения RL на масштабе доктренинга. В отличие от более осторожных путей OpenAI и Anthropic, xAI с одной стороны подшучивает над «эффективностью», а с другой — реально поставляет мультимодальные инструменты. Интерпретировать этот твит как «open-source» или как «революцию эффективности» — это больше похоже на эмоциональные ожидания. Основной объём инвестиций в C-серию на 6 млрд долларов у xAI направлен на инфраструктуру, а не на «упрощение датасетов до минимума».

Это также создаёт несоответствие между ценообразованием и нарративом. Если рынок чрезмерно фокусируется на эффективности затрат, он легко упускает из виду более высокий вес вычислительного «рова» (barrier). У xAI есть относительное преимущество в инфраструктуре; а компаниям вроде Meta, если они не смогут получить сопоставимые масштабы RL и вычислительную мощность для обучения, может не хватить темпа и глубины в рассуждениях.

Сторона Что они увидели Влияние на понимание отрасли Оценка
Ультраминималисты Превратили шутку про «2 книги» в подтверждение эффективного обучения Подпитывает ожидания независимых разработчиков, что «закон масштаба можно обойти» Преувеличение — игнорируются жёсткие ограничения вычислительного порога для команд с нехваткой средств
Практики масштаба Фокус на кластере Colossus у xAI и на RL-маршруте Grok 3/4 Усиливает согласие, что «FLOPs важнее трюков с данными»; корпоративные клиенты больше ценят поставщика с высоким ресурсом вычислений Ближе к реальности — преимущество xAI на корпоративной стороне недооценивается рынком
Осторожные Отмечают отсутствие экспертного бэккинга и слабую связь с бенчмарками вроде ARC-AGI-2 (Grok 4 на уровне 15.9%) Избегают ошибочных допущений по инвестициям из-за колебаний нарратива Обоснованная сдержанность — риск выше у финансирования, движимого нарративом
Аналитики по конкурентам Сопоставляют интеграцию инструментов вокруг Grok API и проблему иллюзий/«галлюцинаций» у конкурентов (в версии 4.1 есть улучшения) Ускоряют позиционирование в конкурентной борьбе; давление со стороны мультимодальности у xAI (речь/видео и т.п.) передаётся конкурентам xAI сокращает разрыв и отрывается; у Anthropic в темпе расширения RL может быть ограничение

**Вывод: ** Настоящая переменная, которую прячет эта шутка, — лидерство xAI в вычислениях. Те, кто не переключился на scalable RL, уже отстают; инвесторы, делающие ставку на вычисления и инвестиции в инфраструктурный ров, находятся на ранней стадии; корпоративные покупатели сейчас применяют агентные инструменты Grok и потому получают преимущества по сравнению с оппонентами, которые всё ещё верят в «миф о минимальных данных».

**Важность: ** Средняя
**Категория: ** Технические инсайты, отраслевые тенденции, влияние на рынок

**Оценка: ** Сейчас — момент, когда эта история ещё выгодна для тех, кто инвестирует в вычисления и базовую инфраструктуру RL, а для тех, кто по-прежнему придерживается маршрута «минимальные данные», это уже «слишком поздно». Максимальную практическую выгоду получат участники, которые управляют или подключаются к крупным GPU-кластерам и RL-инженерному стеку: инфраструктурные разработчики и фонды на средне- и долгосрочную перспективу выигрывают больше всего. Корпоративные покупатели, которые готовы внедрять агентную toolchain Grok как можно раньше, тоже в выигрыше; краткосрочные трейдеры — только если есть явный катализатор поставок вычислительных мощностей — иначе их маржинальное преимущество ограничено.

GROK-3,36%
XAI0,12%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить