На Nvidia GTC 2026 Цзюньхуэй Хуан уверенно заявил: многие компании, основанные на ИИ, появились потому, что Nvidia «переопределила вычисления». Он сказал, что мы находимся в начале новой платформенной революции, аналогичной революции персональных компьютеров. За последние два года, с появлением ChatGPT, эпоха генеративного ИИ действительно началась.
Хуан показал ключевой слайд, раскрывающий, что мировой рынок вычислительных мощностей для ИИ входит в стадию взрывного роста. На графике показано, что потенциальный объем рынка дата-центров (TAM) вырос с примерно 500 миллиардов долларов в 2025 году за короткий год до более чем 1 триллиона долларов ($1T), и продолжает расширяться. В центре внимания — концепция «Inference Inflection» (поворот в области вывода).
Ранее развитие ИИ в основном сосредоточено на этапе обучения (Training), то есть обучении модели на больших объемах данных. Но по мере зрелости крупных моделей, ИИ начинает внедряться в различные продукты и услуги, такие как службы поддержки, генерация изображений и разработка программного обеспечения. Это означает, что фокус рынка смещается с обучения на вывод (Inference). Когда ИИ используется миллиардами пользователей одновременно, каждый запрос, генерация изображений или видео требуют вычислительных ресурсов. Такая высокая частота и низкая задержка в вычислениях вызовут геометрический рост спроса на вычислительную мощность для вывода.
В начале выступления Хуан подробно рассказал о применениях программного стека Nvidia в различных отраслях, особенно подчеркнув экосистему библиотек CUDA-X. Он заявил: «Мы — компания алгоритмов». Он отметил, что внедрение ИИ — это не только генеративный ИИ. «Просто бросать GenAI на стену и смотреть, сработает ли — не стратегия.» Он считает, что разные отрасли сталкиваются с очень разными задачами, поэтому Nvidia должна разрабатывать специализированные библиотеки (domain-specific libraries).
Поворот в области вывода: мировой масштаб дата-центров достигает триллиона долларов
На основной презентации GTC 2026 Хуан показал ключевой слайд, раскрывающий, что мировой рынок вычислительных мощностей для ИИ входит в стадию взрывного роста. Потенциальный объем рынка дата-центров (TAM) вырос с примерно 500 миллиардов долларов в 2025 году за короткий год до более чем 1 триллиона долларов ($1T), и продолжает расширяться.
Самый важный концепт — «Inference Inflection» (поворот в области вывода). Ранее развитие ИИ было сосредоточено на этапе обучения (Training), то есть обучении моделей на больших данных. Но по мере зрелости крупных моделей, ИИ начинает внедряться в различные продукты и услуги, такие как поиск, службы поддержки, генерация изображений и разработка программ. Это означает, что рынок смещается с обучения на вывод.
Когда ИИ используется миллиардами пользователей одновременно, каждый запрос, генерация изображений или видео требуют поддержки вычислений. Такой высокий спрос и низкая задержка вызовут экспоненциальный рост потребности в вычислительной мощности для вывода, что Nvidia считает ключевым драйвером рынка триллионных дата-центров ИИ.
Правая часть слайда показывает структуру рынка: текущий спрос на вычислительные ресурсы для ИИ в основном исходит от двух типов клиентов. Около 60% спроса — от гиперскейлеров и компаний, родившихся с ИИ (AI-native companies), включая:
Amazon Web Services
Google Cloud
Microsoft
и разработчиков моделей ИИ:
OpenAI
Anthropic
xAI
Оставшиеся 40% рынка приходятся на новые области, которые Nvidia активно развивает в последние годы, включая Sovereign AI (суверенный ИИ), промышленность и корпоративные приложения. Суверенный ИИ — это создание государствами собственных инфраструктур ИИ, отражающих их язык, культуру и данные. Например:
создание национальных суперкомпьютеров для ИИ
обучение локальных языковых моделей
создание национальных данных и суверенитета данных
Также крупные отрасли начинают массово внедрять ИИ, включая:
автомобили и системы автономного вождения
производство и умные фабрики
медицинскую визуализацию
финансовые модели оценки рисков
В центре слайда перечислены основные экосистемы моделей ИИ, такие как ChatGPT, Gemini, Grok и различные open-source модели. Среди них Anthropic и Meta Superintelligence Labs обозначены как новые силы, появившиеся после 2025 года, что свидетельствует о быстром расширении конкуренции в области моделей ИИ.
На GTC 2026 Хуан: Nvidia — по сути, «компания алгоритмов»
В ходе выступления Хуан подробно рассказал о применениях программного стека Nvidia в различных отраслях — от медицины и производства до финансов и облачных вычислений. Он подчеркнул, что все возможности в конечном итоге сводятся к экосистеме библиотек CUDA-X. «Мы — компания алгоритмов», — заявил он. Он описал CUDA-X как «корону драгоценности Nvidia», подчеркнув, что истинная ценность GPU заключается в программной платформе, а не только в аппаратуре.
Одним из ключевых компонентов является cuDNN — библиотека, специально предназначенная для ускорения работы глубоких нейронных сетей на GPU, которая широко используется в ведущих фреймворках ИИ и стала важнейшим элементом современной инфраструктуры глубокого обучения.
Хуан вновь подчеркнул важность программного обеспечения для экосистемы ИИ и отметил, что cuDNN — одна из самых важных библиотек компании, даже назвав её «взрывом, запустившим современную волну искусственного интеллекта». В рамках презентации Nvidia показала короткий ролик о своей экосистеме CUDA-X, включающий почти фотореалистичное видео, созданное полностью с помощью ИИ и симуляционных технологий, что демонстрирует прорывы GPU и фреймворков глубокого обучения в области визуальных вычислений.
Хуан: ИИ нуждается в «специализированных библиотеках для отраслей»
Хуан отметил, что внедрение ИИ — это не только генеративный ИИ. «Просто бросать GenAI на стену и смотреть, сработает ли — не стратегия.» Он считает, что из-за огромных различий в задачах разных отраслей Nvidia необходимо разрабатывать domain-specific libraries (отраслевые специализированные библиотеки), чтобы предоставлять оптимизированные решения для каждого сектора.
Это и есть причина расширения экосистемы CUDA-X, которая уже охватывает десятки областей, таких как:
научные вычисления
медицинская визуализация
автономное вождение
финансовый анализ
данные и инженерия
Эти библиотеки позволяют GPU максимально эффективно работать в различных сценариях.
Вертикальная интеграция и горизонтальная открытость AI-стека
Хуан описал стратегию Nvidia как «вертикальную интеграцию, горизонтальную открытость» (vertically integrated but horizontally open). Это означает, что Nvidia предоставляет полный стек — от чипов и систем до программного обеспечения и платформ для приложений, при этом позволяя компаниям и разработчикам создавать свои решения на их платформе. В условиях взрывного роста потребностей в вычислениях Nvidia считает, что именно такой подход — единственный способ ускорить развитие ускоренных вычислений.
Ключевая арена ИИ: неструктурированные данные
Хуан также отметил важность обработки неструктурированных данных (unstructured data). Он указал, что около 90% данных в мире — это неструктурированные данные, такие как изображения, видео, аудио и текст на естественных языках, которые ранее считались практически бесполезными из-за трудностей поиска и анализа. Но по мере развития ИИ и технологий GPU эти данные начинают превращаться в ценные аналитические ресурсы.
Например, IBM использует фреймворк Nvidia cuDF для ускорения обработки данных в своей платформе WatsonX, что позволяет быстро анализировать большие объемы неструктурированных данных.
OpenAI внедрит AWS для снижения нагрузки на вычислительные ресурсы
Обсуждая инфраструктуру ИИ, Хуан также упомянул о проблемах с вычислительными мощностями у OpenAI. Он отметил, что в настоящее время OpenAI «полностью ограничена в вычислительных ресурсах», и в этом году компания начнет использовать инфраструктуру Amazon Web Services для смягчения огромных требований к вычислениям.