La guerre des puces s'intensifie ! La domination des GPU de NVIDIA est encerclée par Google et Amazon

NVIDIA a livré 6 millions de GPU l’année dernière, le prix d’un serveur Blackwell unique atteignant jusqu’à 3 millions de dollars et expédiant 1000 unités par semaine, dominant le marché des puces AI. Mais cette guerre des puces est en train de changer, avec l’émergence de puces personnalisées telles que Google TPU, AWS Tranium, Broadcom ASIC, etc. Les analystes estiment que la part de marché de Broadcom dans le marché des ASIC personnalisés pourrait atteindre 70-80 %.

GPU : De la carte de jeu au cœur de l’IA, une décennie dorée

晶片戰爭白熱化

L’évolution des GPU NVIDIA, passant de cartes de jeu à puces clés pour l’IA, remonte à AlexNet en 2012. Les chercheurs ont pour la première fois utilisé la capacité de calcul parallèle des GPU NVIDIA pour l’entraînement de réseaux neuronaux, prenant une avance considérable dans les compétitions de reconnaissance d’images, ouvrant ainsi l’ère de l’apprentissage en profondeur. Les avantages fondamentaux des GPU résident dans des milliers de cœurs de traitement parallèles, capables d’effectuer efficacement des opérations matricielles et tensoriales, parfaits pour l’entraînement et l’inférence en IA.

Dans les grands racks de serveurs, 72 GPU peuvent être connectés via la technologie NVLink pour former une unité de calcul semblable à un seul GPU géant. NVIDIA ne fournit pas seulement des GPU à OpenAI, aux gouvernements et aux entreprises du monde entier, mais conçoit également des systèmes complets de serveurs. La concurrence avec AMD, qui s’appuie sur les GPU Instinct et un écosystème logiciel open source pour accélérer le développement, est féroce. Récemment, AMD a reçu le soutien d’OpenAI et d’Oracle. Les GPU AMD utilisent principalement des logiciels open source, tandis que ceux de Nvidia sont optimisés autour de CUDA.

Les ASIC personnalisés, clé pour les géants du cloud

Les géants du cloud comme Google, Amazon, Meta, Microsoft et OpenAI investissent massivement dans la recherche et développement de ASIC (circuits intégrés spécifiques à une application). Ces puces conçues pour une tâche unique devraient devenir la catégorie de puces AI à la croissance la plus rapide dans les années à venir. Avec la maturité des grands modèles de langage, la demande d’inférences dépasse rapidement celle de l’entraînement, et les coûts, la consommation d’énergie et la stabilité des inférences deviennent des enjeux majeurs pour les plateformes cloud, où les ASIC jouent un rôle central.

Contrairement aux GPU universels, les ASIC ressemblent à des « outils ultra précis spécialisés » : optimisés en hardware pour des charges de travail AI spécifiques, ils offrent une vitesse accrue et une consommation plus faible. Leur principal inconvénient réside dans leur flexibilité limitée et leur coût de développement extrêmement élevé, souvent plusieurs centaines de millions de dollars, ce qui limite leur adoption aux géants du cloud. La fabrication de ASIC personnalisés pour l’IA coûte très cher, mais pour les fournisseurs de services cloud de grande envergure, ils offrent une meilleure efficacité énergétique et réduisent la dépendance à NVIDIA.

Google est le premier acteur majeur dans le domaine des ASIC, ayant créé le circuit intégré personnalisé pour l’accélération de l’intelligence artificielle, avec la création en 2015 du Tensor Processing Unit (TPU). La puce TPU a permis à Google d’inventer l’architecture Transformer en 2017, qui est à la base de ChatGPT, Claude et autres IA. Aujourd’hui, Google en est à la 7e génération de TPU, la TPU Ironwood, et aide Anthropic à entraîner la série de modèles Claude avec des millions de TPU.

AWS, après l’acquisition d’Annapurna Labs, investit massivement dans le développement de ses propres puces AI. Les puces Tranium et Inferentia sont devenues des piliers importants de la plateforme d’entraînement et d’inférence d’AWS. En 2024, Anthropic entraînera ses modèles avec 500 000 puces Tranium 2 dans le centre de données du Nord de l’Indiana, utilisant même complètement des puces ASIC sans GPU NVIDIA, illustrant la montée en puissance des ASIC.

Tendances de diversification des puces et compromis coûts-efficacité

Broadcom et Marvell, en tant que fondeurs de circuits, sont des partenaires stratégiques clés pour de très grands clouds. Les ASIC Google TPU, l’accélérateur développé en interne par Meta, et ceux à venir d’OpenAI, sont tous fortement impliqués par Broadcom. Broadcom contribue à la construction des TPU de Google et des circuits de Meta pour l’inférence AI, avec une part de marché estimée entre 70-80 % dans ce segment des ASIC personnalisés.

Les puces AI en périphérie s’étendent aussi aux appareils personnels. Les NPU (Neural Processing Units) sont des circuits conçus spécifiquement pour faire fonctionner l’IA en périphérie des appareils, intégrés dans Snapdragon de Qualcomm, AMD, Intel et la série M d’Apple, pour smartphones, ordinateurs portables, maisons intelligentes, voitures et robots. L’IA sur périphérie offre une meilleure confidentialité, une latence plus faible et un contrôle accru.

Comparaison des trois grandes catégories de puces

GPU : Très polyvalents, adaptés à diverses charges de travail, mais consommation élevée et coût coûteux, un seul rack coûtant jusqu’à 3 millions de dollars

ASIC : Très spécialisés, rapides et à faible consommation, coût de développement plusieurs centaines de millions de dollars mais un rapport coût-efficacité à long terme de 30-40%

FPGA/NPU : Reconfigurables, entre les deux, adaptés aux appareils en périphérie et aux phases de test

TSMC maîtrise le nœud critique de la chaîne d’approvisionnement en puces

Que ce soit pour le GPU Blackwell de NVIDIA, le TPU de Google ou le Tranium d’AWS, la majorité des puces AI sont finalement fabriquées par TSMC. Cela relie étroitement l’offre de puissance de calcul AI à la géopolitique mondiale. Les États-Unis tentent de ramener une partie de la capacité de fabrication de puces en utilisant leur usine TSMC en Arizona et le procédé Intel 18A. Cependant, des entreprises chinoises comme Huawei et Alibaba développent également activement leurs propres ASIC pour contourner les restrictions à l’exportation et chercher des alternatives domestiques.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)