Війна за чіпи розгорається! Гегемонія GPU від NVIDIA оточена Google та Amazon

輝達 GPU минулого року поставлено 600 мільйонів штук, ціна одного сервера Blackwell досягає 3 мільйонів доларів і щотижня відвантажується 1000 одиниць, що дозволяє їй домінувати на ринку AI-чіпів. Але ця війна чіпів змінює напрямок: зростають кастомізовані чіпи, такі як Google TPU, AWS Tranium, ASIC від Broadcom, і аналітики прогнозують, що частка Broadcom на ринку кастомізованих ASIC може досягати 70-80%.

GPU — від ігрових карт до золотого десятиліття AI

晶片戰爭白熱化

Перехід GPU від ігрових карт до ядерних чіпів для AI почався ще в 2012 році з AlexNet. Команда дослідників вперше застосувала паралельні обчислення GPU для тренування нейронних мереж, що значно випередило конкурентів у змаганнях з розпізнавання зображень і відкрила еру глибокого навчання. Основна перевага GPU полягає у тисячах паралельних ядер, здатних ефективно виконувати матричні та тензорні обчислення, що ідеально підходить для тренування та виведення AI.

У великих серверних стійках 72 GPU можуть бути об’єднані за допомогою технології NVLink у єдину обчислювальну одиницю, схожу на один великий GPU. NVIDIA постачає GPU не лише OpenAI, урядам і компаніям, а й створює цілі серверні системи. Конкурент AMD використовує свої GPU Instinct і відкриту екосистему програмного забезпечення для прискорення розвитку, отримуючи підтримку від OpenAI та Oracle. GPU AMD здебільшого базуються на відкритому ПЗ, тоді як GPU NVIDIA оптимізовані під CUDA.

Кастомізовані ASIC — ключ до прориву для гігантів хмарних сервісів

Від Google, Amazon, Meta, Microsoft до OpenAI — великі гравці у хмарних обчисленнях активно розробляють кастомізовані ASIC (спеціалізовані інтегральні схеми). Ці чіпи, створені для конкретних задач, у найближчі роки стануть найшвидше зростаючим сегментом AI-чіпів. Зі зрілістю великих мовних моделей зростає потреба у швидкому виведенні, що перевищує тренування, а витрати, енергоспоживання та стабільність стають головними проблемами хмарних платформ — і тут на допомогу приходять ASIC.

На відміну від універсальних GPU, ASIC — це як «спеціальні високоточні інструменти», оптимізовані під конкретне навантаження, що забезпечує швидкість і низьке споживання. Недолік — менша гнучкість і високі витрати на розробку, які можуть сягати сотень мільйонів доларів, тому їх можуть дозволити лише гіганти хмарних сервісів. Вартість створення кастомізованого ASIC для AI дуже висока, але для великих провайдерів вона виправдовується високою ефективністю та зменшенням залежності від NVIDIA.

Google — перший великий гравець у цій сфері, створивши спеціальні ASIC для прискорення AI, з 2015 року запровадивши Tensor Processing Unit (TPU). TPU сприяв створенню архітектури Transformer у 2017 році, яка стала основою для ChatGPT, Claude та інших AI. Зараз Google має 7-му генерацію TPU Ironwood і допомагає Anthropic тренувати моделі на мільйонах TPU.

AWS після придбання Annapurna Labs активно розвиває власні AI-чіпи. Tranium і Inferentia вже є ключовими компонентами платформ для тренування і виведення моделей. У 2024 році Anthropic тренує моделі у північному індійському дата-центрі AWS, використовуючи 500 000 Tranium 2-чіпів, і без GPU NVIDIA — що свідчить про зростання ролі ASIC.

Тенденції диверсифікації чіпів і баланс між вартістю та ефективністю

Компанії-розробники чіпів, такі як Broadcom і Marvell, є стратегічними партнерами великих хмарних гігантів. Broadcom активно залучена до створення TPU для Google, а також ASIC для Meta. Аналітики прогнозують, що частка Broadcom на ринку кастомізованих ASIC може сягати 70-80%.

На периферії AI чіпи також поширюються на персональні пристрої. NPU (нейронний процесор) — це спеціальні чіпи для роботи AI безпосередньо на пристроях, вже інтегровані у Snapdragon від Qualcomm, процесори AMD, Intel і Apple M-серії SoC для смартфонів, ноутбуків, розумних будинків, автомобілів і роботів. Обчислювальні пристрої на краю мережі забезпечують більшу приватність, меншу затримку і кращий контроль.

Порівняння трьох основних типів чіпів

GPU: універсальні, підходять для різних навантажень, але споживають багато енергії і коштують дорого — один сервер коштує до 3 мільйонів доларів

ASIC: спеціалізовані, швидкі, з низьким споживанням, вартість розробки — сотні мільйонів доларів, але довгострокова вигідність 30-40%

FPGA/NPU: перероблювані, між GPU і ASIC, підходять для периферійних пристроїв і тестування

TSMC контролює ланцюг поставок чіпів

Незалежно від того, чи це GPU Blackwell від NVIDIA, TPU від Google або Tranium від AWS, більшість AI-чіпів у світі виготовляються на TSMC. Це робить постачання AI-обчислювальної потужності тісно пов’язаним із глобальною геополітикою. США намагаються повернути частину виробництва до країни через завод TSMC у Арізоні та 18A технологію Intel. Водночас китайські компанії, такі як Huawei і Alibaba, активно створюють власні ASIC у пошуках альтернатив у умовах експортних обмежень.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити