在 Nvidia GTC 2026 上,黄仁勋自信地表示:许多 AI 原生公司之所以能够出现,是因为辉达“重新定义了运算”。他表示,我们正处于新平台变革的开端,这类似于个人电脑革命。过去两年,随着 ChatGPT 的问世,生成式 AI 时代真正拉开了序幕。
黄仁勋展示一张关键投影片,揭示全球 AI 算力市场正进入爆发式增长阶段。该图显示,全球数据中心市场的潜在规模(TAM)已从 2025 年约 5000 亿美元,在短短一年内跃升至超过 1 兆美元($1T),并且仍在持续扩张。投影片中最核心的概念是 “Inference Inflection”(推理拐点)。
过去 AI 发展主要集中在训练(Training)阶段,也就是让模型学习大量数据。但随着大型模型成熟,AI 正开始被部署到各种产品与服务中,例如客服、影像生成与程式开发。这意味着市场重心正从训练转向推理(Inference)。当 AI 被数十亿用户同时调用时,每一次提问、生成图片或影片都需要算力支援。这种高频、低延迟的运算需求,将使推理算力需求呈现几何级数增长。
在演说的开头,黄仁勋花了相当长时间介绍 Nvidia 软件堆叠在各产业的应用,尤其是 Nvidia 的 CUDA-X 程序库生态。他说:“我们是一家算法公司。”他指出,AI 的落地并非只靠生成式 AI。“把 GenAI 丢到墙上看它会不会成功并不是策略。”他认为,不同产业面临的问题差异极大,因此 Nvidia 必须开发 domain-specific libraries(产业专用程序库)。
推理拐点:全球数据中心规模走向一兆美元
在 Nvidia GTC 2026 的主题演讲中,黄仁勋展示一张关键投影片,揭示全球 AI 算力市场正进入爆发式增长阶段。该图显示,全球数据中心市场的潜在规模(TAM)已从 2025 年约 5000 亿美元,在短短一年内跃升至超过 1 兆美元($1T),并且仍在持续扩张。
投影片中最核心的概念是 “Inference Inflection”(推理拐点)。过去 AI 发展主要集中在训练(Training)阶段,也就是让模型学习大量数据。但随着大型模型成熟,AI 正开始被部署到各种产品与服务中,例如搜索、客服、影像生成与程式开发。这意味着市场重心正从训练转向推理(Inference)。
当 AI 被数十亿用户同时调用时,每一次提问、生成图片或影片都需要算力支援。这种高频、低延迟的运算需求,将使推理算力需求呈现几何级数增长,也被 Nvidia 视为推动兆美元 AI 数据中心市场的核心动力。
投影片右侧的市场结构显示,目前 AI 算力需求主要来自两大类客户。约 60% 的需求来自超大规模云端服务商(Hyperscalers)与 AI 原生公司(AI-native companies)。其中包括:
Amazon Web Services
Google Cloud
Microsoft
以及 AI 模型开发商:
OpenAI
Anthropic
xAI
另一个 40% 的市场需求,则来自 Nvidia 近年来最强调的新领域,包括 Sovereign AI(主权 AI)、工业与企业应用。所谓主权 AI,是指各国政府建立属于自身语言、文化与资料体系的 AI 基础设施。例如:
建立国家级 AI 超级电脑
训练本地语言模型
建立国家资料主权
此外,传统产业也开始大规模导入 AI,包括:
汽车与自动驾驶系统
制造与智慧工厂
医疗影像分析
金融风险模型
投影片中央也列出了目前主要的 AI 模型生态,包括 ChatGPT、Gemini、Grok 以及各种开源模型。其中 Anthropic 与 Meta Superintelligence Labs 被标注为 2025 年后崛起的新力量,显示 AI 模型竞争正在快速扩大。
GTC 2026 黄仁勋:Nvidia 本质是一家“算法公司”
黄仁勋在演讲中花了相当长时间介绍 Nvidia 软件堆叠在各产业的应用,从医疗、制造、金融到云端运算。他指出,所有能力最终都回到 Nvidia 的 CUDA-X 程序库生态。“我们是一家算法公司。”黄仁勋表示。他并形容 CUDA-X 为 Nvidia “皇冠上的宝石(crown jewel)”,强调 GPU 的真正价值来自于软件平台,而非仅是硬件本身。
其中最关键的组件之一就是 cuDNN,该程序库专门为深度神经网络提供高性能 GPU 加速,长期被主流 AI 框架广泛采用,成为现代深度学习基础设施的重要组成部分。
黄仁勋再次强调软件对 AI 生态的重要性,并指出 cuDNN 是公司历来最关键的程序库之一,甚至称其为引发现代人工智慧浪潮的大爆炸。Nvidia 在会中展示一段关于其 CUDA-X 软件生态的短片,其中包含一段完全由 AI 与模拟技术生成、几乎以假乱真的影片,藉此凸显 GPU 加速与深度学习框架在视觉运算上的突破。
黄仁勋:AI 需要“产业专用程序库”
黄仁勋指出,AI 的落地并非只靠生成式 AI。“把 GenAI 丢到墙上看它会不会成功并不是策略。”他认为,不同产业面临的问题差异极大,因此 Nvidia 必须开发 domain-specific libraries(产业专用程序库),为各垂直领域提供优化解决方案。
这也是 CUDA-X 生态持续扩张的原因,目前已涵盖数十个领域,包括:
科学计算
医疗影像
自动驾驶
金融分析
资料工程
这些程序库使 GPU 能在不同产业场景中发挥最大效能。
垂直整合、水平开放的 AI 堆叠
黄仁勋形容 Nvidia 的策略为 “垂直整合、水平开放”(vertically integrated but horizontally open)。这意味着 Nvidia 从晶片、系统、软件到应用平台提供完整堆叠,但同时允许各种企业与开发者在其平台上开发应用。在 AI 计算需求爆发的背景下,NVIDIA 认为这种模式是推动加速运算(accelerated computing)的唯一方式。
AI 的关键战场:非结构化资料
黄仁勋也提到 AI 的另一个重要任务:处理非结构化资料(unstructured data)。他指出,全球约 90% 的资料都是非结构化,例如影像、影音、语音与自然语言文本,但过去因为难以搜索与分析而被视为几乎无用。随着 AI 与 GPU 加速技术成熟,这些资料正逐渐被转化为可分析资产。
例如 IBM 正利用 Nvidia 的 cuDF GPU 加速框架,提升其 WatsonX 资料平台处理效率,让大量非结构化资料能被快速分析与利用。
OpenAI 将导入 AWS,缓解算力压力
在谈到 AI 基础设施时,黄仁勋也提到 OpenAI 的算力需求问题。他指出,目前 OpenAI “完全受到算力限制”,而今年该公司将导入 Amazon Web Services 的基础设施,以缓解庞大的运算需求。
这篇文章 NVIDIA GTC 2026|黄仁勋:辉达重新定义运算,资料中心规模走向兆级市场 最早出现于 链新闻 ABMedia。