Nvidia GTC 2026: Jensen Huang Unvela una Hoja de Ruta de $1 Billones de Dólares en IA desde la Tierra al Espacio



La conferencia Nvidia GTC 2026 comenzó oficialmente el 16 de marzo en el SAP Center en San José, California, con una presentación magistral del cofundador y CEO Jensen Huang que se extendió por más de dos horas. Vistiendo su icónica chaqueta de cuero, Huang presentó una visión abarcadora del futuro de la IA, introduciendo nuevas arquitecturas de hardware, actualizaciones revolucionarias de software y una expansión ambiciosa hacia el espacio.

La Economía del "Token Inteligente" y la Perspectiva de $1 Billones de Dólares

Huang comenzó replanteando la trayectoria de la IA, declarando que la industria está cambiando de la "era de entrenamiento de modelos" a la "era de inferencia". Introdujo el concepto de "Tokens Inteligentes" como la unidad fundamental de la economía de IA—cada respuesta, imagen o decisión generada por IA representa un token producido por lo que él llamó "fábricas de IA" o "fábricas de tokens". Este cambio conceptual reposiciona los centros de datos de centros de costos a instalaciones de producción que generan ingresos.

La escala financiera de esta visión es asombrosa. Huang anunció que Nvidia ve órdenes de compra para sus sistemas actuales y de próxima generación—Blackwell y Vera Rubin—totalizando **$1 billones de dólares hasta 2027**. Esto duplica la oportunidad de $500 mil millones de dólares que la empresa proyectó el año pasado, señalando que la demanda de IA empresarial sigue siendo insaciable a pesar de las incertidumbres económicas más amplias.

Innovaciones de Hardware: Plataforma Vera Rubin y Más Allá

Plataforma de Fábrica de IA Vera Rubin

La pieza central de los anuncios de hardware fue el lanzamiento completo de la plataforma Vera Rubin, la sucesora de Blackwell de Nvidia. A diferencia de un chip único, Vera Rubin se posiciona como una "plataforma de fábrica de IA" completa que comprende:

· Vera CPU: El nuevo procesador central diseñado personalmente por Nvidia, construido específicamente para cargas de trabajo de IA. Ofrece el doble de eficiencia y es 50% más rápido que las CPUs tradicionales.
· Rubin GPU: El procesador gráfico de próxima generación, diseñado para manejar modelos multimodales con parámetros en billones.
· NVLink de Sexta Generación: Tecnología de interconexión avanzada que permite que cientos de GPUs Rubin funcionen como una única GPU virtual masiva.
· Switches CPO: La tecnología de ópticamente co-empaquetada (CPO) reemplaza el cableado de cobre tradicional con comunicación óptica, reduciendo dramáticamente el consumo de energía mientras aumenta el ancho de banda.

La plataforma completa está refrigerada por líquido y diseñada para despliegue de "fábrica de IA", donde los clientes pueden simplemente conectar energía y datos para comenzar la producción de IA.

Rubin Ultra y la Arquitectura Feynman

Mirando más adelante, Huang adelantó la plataforma Rubin Ultra con la arquitectura de rack Kyber—un diseño revolucionario donde las bandejas de cómputo se sitúan verticalmente para aumentar la densidad y reducir la latencia. Kyber integrará 144 GPUs en un sistema de escala de rack único, con entrega esperada en 2027.

Aún más distante, Huang confirmó que Nvidia ya está desarrollando la arquitectura de próxima generación con el nombre en clave Feynman, nombrada en honor del físico Richard Feynman. Esta arquitectura utilizará chips apilados en 3D y memoria HBM personalizada, empujando los límites de rendimiento hacia 2030.

Integración Estratégica de Groq: El Motor de Inferencia LPU

Uno de los anuncios más significativos involucró la integración de Nvidia de tecnología de Groq, la startup de inferencia de IA cuya tecnología Nvidia licenció por aproximadamente $20 mil millones de dólares en diciembre. La colaboración resultó en la Unidad de Procesamiento de Lenguaje Groq 3 de Nvidia (LPU), ahora marcada simplemente como el chip de inferencia LPX.

Impulso de Velocidad de Inferencia de 35x

El Groq 3 LPX está diseñado específicamente para inferencia de baja latencia—la fase crítica donde los modelos de IA generan respuestas en tiempo real. Huang demostró cómo funciona la arquitectura LPX junto con GPUs Rubin mediante una técnica llamada "inferencia desacoplada":

· Las GPUs manejan la etapa de "prefill" (procesando entradas del usuario en paralelo)
· Las LPUs manejan la etapa de "decodificación" (generando tokens secuencialmente con latencia mínima)

Esta división del trabajo resulta en una mejora reclamada de 35x en el rendimiento de tokens por vatio cuando se agregan LPUs Groq a sistemas Rubin. El rack Groq 3 LPX alberga 256 LPUs y está diseñado para situarse junto a los racks Vera Rubin en centros de datos.

Huang fue pragmático sobre el despliegue, sugiriendo que para cargas de trabajo que requieren rendimiento máximo, Vera Rubin puro sigue siendo óptimo. Sin embargo, para "generación de tokens de ingeniería de alto valor" y aplicaciones de codificación, agregar LPUs Groq a aproximadamente el 25% de un centro de datos ofrece rendimiento óptimo.

Los chips LPX ya están en producción en volumen en Samsung y se espera que se envíen en el tercer trimestre de 2026.

Software y Agentes de IA: NemoClaw y Modelos Abiertos

NemoClaw para Agentes de IA Empresarial

Basándose en el fenómeno de código abierto OpenClaw—que Huang señaló se ha convertido en el proyecto de código abierto de crecimiento más rápido de la historia—Nvidia introdujo NemoClaw, una plataforma lista para empresas para desplegar agentes de IA.

La plataforma proporciona una "pila de referencia" completa que descarga automáticamente OpenClaw y construye agentes de IA listos para producción con características de seguridad, privacidad y gestión de nivel empresarial. Esto posiciona a Nvidia para competir con ofertas de OpenAI y otros proveedores en la nube en el mercado de IA agente en rápido crecimiento.

Colaboración de Modelos Abiertos

Huang anunció la "Alianza Nemotron", una colaboración con laboratorios de IA líderes incluyendo Mistral AI, Ai2, y otros para desarrollar modelos fronterizos abiertos. Esta iniciativa refleja el compromiso de Nvidia con la innovación abierta, que Huang enmarcó como esencial para la proliferación de la IA en todas las industrias.

Juegos y Gráficos: DLSS 5

Los juegos siguen siendo parte del legado de Nvidia, y Huang entregó una actualización significativa para jugadores con DLSS 5. Descrito como el "avance más significativo en gráficos por computadora desde el debut del ray tracing en tiempo real en 2018", DLSS 5 aprovecha la IA generativa para renderizar escenas de juego completas en tiempo real.

La tecnología utiliza modelos de IA para generar iluminación y materiales fotorrealistas, efectivamente convirtiendo el renderizado de juegos en un problema de inferencia de IA. Huang lo comparó con el "momento GPT" de los gráficos. Editoras de juegos importantes incluyendo Capcom, Tencent, y NetEase se han comprometido a apoyar DLSS 5, que se espera lance en otoño de 2026 con soporte nativo en 4K.

IA Física: Vehículos Autónomos y Robótica

Expansión de Vehículos Autónomos

El discurso presentó actualizaciones sustanciales en transporte autónomo. Uber anunció planes para desplegar una flota impulsada por el software Drive AV de Nvidia en 28 ciudades en cuatro continentes para 2028, comenzando con Los Ángeles y San Francisco en 2027.

Varios fabricantes de automóviles importantes se comprometieron a construir vehículos autónomos Nivel 4 en la plataforma Drive Hyperion de Nvidia, incluyendo:

· Nissan
· BYD
· Geely
· Hyundai
· Isuzu (autobuses autónomos, en asociación con Tier IV)

Huang caracterizó los vehículos autónomos como "potencialmente la primera industria de robótica de múltiples billones de dólares", con Nvidia proporcionando la infraestructura completa desde el entrenamiento hasta el despliegue.

Colaboración con Disney: El Robot "Olaf"

En un momento encantador, Huang fue acompañado en el escenario por un robot desarrollado en colaboración con Disney—una versión robótica de Olaf de Frozen. El robot demostró caminar natural, gestos e interacción conversacional, mostrando la plataforma Isaac Sim de Nvidia y los módulos de robótica Jetson Thor.

Esta demostración encarnó la visión de "IA Física" de Nvidia—sistemas de IA que no solo procesan información sino que interactúan con y operan dentro del mundo físico.

Exploración del Espacio: Space-1 Vera Rubin

Quizás el anuncio más futurista fue Space-1 Vera Rubin, un módulo de computación de IA diseñado para despliegue en el espacio. Construido para resistir condiciones extremas de radiación y temperatura, estos módulos pueden instalarse en satélites o estaciones espaciales.

Las implicaciones son profundas: los satélites equipados con Space-1 pueden procesar imágenes y datos de sensores en órbita en lugar de transmitir datos crudos a la Tierra. Un satélite meteorológico podría identificar un huracán en formación e emitir advertencias directamente, sin esperar el procesamiento en tierra. Huang describió esto como "construir la arquitectura de computación completa desde la Tierra al espacio".

CUDA a los 20: Celebrando un Legado

A lo largo del discurso, Huang reflexionó sobre la inversión de 20 años de Nvidia en CUDA, la plataforma de computación paralela introducida en 2006. Lo que comenzó como una apuesta arriesgada en la computación con GPU se ha convertido en la capa de software fundamental para toda la industria de IA.

"Veinte años hemos estado en esta arquitectura—esta invención revolucionaria", dijo Huang a la audiencia. El aniversario de CUDA sirvió como recordatorio del compromiso a largo plazo de Nvidia con la computación acelerada, mucho antes de que la IA se convirtiera en un fenómeno generalizado.

Reacción del Mercado y Perspectiva de Analistas

Las acciones de Nvidia subieron aproximadamente 2% durante el discurso, aunque las ganancias se moderaron a un cierre de 1.65% mientras los inversores asimilaban la escala del pronóstico de pedidos de $1 billones de dólares. Los analistas sugirieron que si bien la cifra parecía dramática, podría alinearse con expectativas de consenso cuando se modele completamente.

Wedbush Securities caracterizó la perspectiva de Nvidia como "muy alcista", señalando que la empresa está efectivamente enmarcando un mercado direccionable de $3 billones a $4 billones de dólares en infraestructura de IA para 2030. Los analistas de Morgan Stanley observaron que la orientación explícita de Huang hasta 2027 debería ayudar a los inversores a construir confianza en la duración del ciclo de inversión en IA.

La Gran Imagen: La Revolución Industrial de la IA

Huang concluyó con una visión abarcadora: lo que comenzó como el "momento iPhone" para la IA hace tres años ha evolucionado hacia una revolución industrial a gran escala. Las fábricas de IA que producen tokens inteligentes se convertirán en tan fundamentales para la economía global como las plantas generadoras de electricidad.

"Los costos de computación están disminuyendo dramáticamente, y la innovación se está acelerando exponencialmente", dijo Huang. "Ahora es el mejor momento para comenzar a construir el futuro".

GTC 2026 continúa hasta el 19 de marzo en San José, con más de 1,000 sesiones, capacitación práctica, y un panel especial sobre modelos fronterizos abiertos moderado por Huang el 18 de marzo. Para aquellos que no pueden asistir en persona, las sesiones permanecen disponibles para participación virtual a través de la plataforma de eventos de Nvidia.
Ver originales
post-image
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 1
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
ybaservip
· En este momento
GOGOGO 2026 👊
Ver originalesResponder0
  • Anclado