Gate News сообщение, 10 апреля, в недавнем ответе Маска на платформе X поднялась дискуссия среди внешних наблюдателей о предполагаемом размере параметров флагманской модели Anthropic. Отвечая на вопрос пользователя о количестве параметров Grok 4.2, Маск подтвердил: «0,5 трлн общих параметров. Текущий Grok — это половина Sonnet, а Opus — одна десятая. По своему объёму это очень мощная модель». Если исходить из обратного расчёта по утверждению Маска «Grok 4.2 — это одна десятая Opus», параметры Claude Opus составляет примерно 5 трлн, а Claude Sonnet — около 1 трлн. Стоит отметить, что Anthropic никогда не раскрывала публично размер параметров ни одной из своих моделей; приведённые выше цифры — это лишь оценки, сделанные на основании высказываний Маска, а не официальные данные. Тем временем Маск рассказал, что суперкомпьютерный кластер Colossus 2 в принадлежащей SpaceX AI отрасли одновременно обучает 7 моделей, с максимальным масштабом до 10 трлн параметров, и добавил: «Ещё кое-что нужно догонять». Если расчёты верны, Claude Opus с 5 трлн параметров окажется на вершине среди уже известных развернутых моделей; а модель с 10 трлн параметров, которую одновременно обучает xAI, станет важной переменной в следующем раунде конкуренции.