L'événement le plus important d'aujourd'hui est la conférence GTC d'Nvidia, c'est littéralement une brève histoire de l'humanité version IA.

robot
Création du résumé en cours

La chose la plus importante aujourd’hui, c’est la conférence GTC de Nvidia, une véritable histoire de l’humanité version IA.

Huang Renxun n’est pas encore monté sur scène, mais les fuites d’informations en amont suffiraient à écrire un livre.

Ce soir, j’ai résumé trois points clés, venez, mes amis, suivez-moi.

1)Le coût de calcul de l’IA réduit d’un tiers

La génération précédente, Blackwell, était déjà impressionnante, n’est-ce pas ? La nouvelle génération de puces, Vera Rubin, va bientôt entrer en production.

Pourquoi Vera Rubin est-elle impressionnante ? En deux mots : bon marché.

Pour le même modèle d’IA, le nombre de puces est réduit à un quart, et le coût de calcul en inférence chute de 90 %. Une réduction de 90 %, mes amis. AWS, Microsoft, Google, les trois grands fournisseurs de cloud, montent directement dans le premier train.

2)Groq, acheté pour 20 milliards de dollars l’an dernier, livre aujourd’hui

Huang Renxun a dit lors de la réunion de résultats que Groq serait intégré dans l’écosystème Nvidia comme une architecture d’extension, tout comme Mellanox a complété la capacité réseau.

Le LPU de Groq, placé dans le même centre de données que le GPU Nvidia, comprend le problème, le GPU comprend, le LPU fournit rapidement la réponse.

La division du travail entre ces deux puces, en mode agent, réduit la latence.

Un agent IA fait le travail à la place de l’humain, une tâche peut nécessiter plusieurs dizaines de tours de réglage du modèle, chaque tour consommant de la puissance de calcul en inférence, et l’utilisateur attend là-bas, une expérience plus lente pourrait faire planter tout.

L’inférence se fait en deux étapes : d’abord comprendre votre question, puis sortir la réponse mot par mot.

Le GPU excelle dans la première étape, mais pour la vitesse et la stabilité de la sortie, le LPU de Groq est meilleur.

200 milliards, c’est cher ?

Réfléchissez : chaque entreprise pourrait faire tourner plusieurs centaines d’agents, chaque agent ajustant le modèle plusieurs milliers de fois par jour.

3)Lancement de NemoClaw, la version Nvidia d’OpenClaw

Une plateforme open source, que les entreprises peuvent déployer pour faire fonctionner des employés IA pour automatiser les processus, traiter des données, gérer des projets. On dit qu’ils ont déjà discuté avec Salesforce et Adobe.

Ce qui est intéressant, c’est que NemoClaw ne nécessite pas l’utilisation de puces Nvidia. Regardez cette logique. Vendre des puces ne rapporte que pour le matériel, mais fixer les règles permet de gagner sur toute la chaîne. Huang Renxun a une vision claire de cette stratégie.

4)Huang Renxun dit vouloir présenter « une puce que le monde n’a jamais vue »

Il s’agit probablement de la première apparition de la prochaine architecture Feynman, prévue pour une production en 2028, utilisant la technologie TSMC la plus avancée en 1,6 nm.

Il y a aussi une information peu connue que je trouve intéressante.

Nvidia a lancé des processeurs pour ordinateurs portables, deux modèles, axés sur le gaming. Les vendeurs de cartes graphiques vont devoir concurrencer pour le marché des CPU.

Ce soir, je pense que Huang Renxun deviendra une grande figure.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler