亲爱的广场用户们,新年即将开启,我们希望您也能在 Gate 广场上留下专属印记,把 2026 的第一句话,留在 Gate 广场!发布您的 #我的2026第一帖,记录对 2026 的第一句期待、愿望或计划,与全球 Web3 用户共同迎接全新的旅程,创造专属于你的年度开篇篇章,解锁广场价值 $10,000 新年专属福利!
活动时间:2025/12/31 18:00 — 2026/01/15 23:59(UTC+8)
🎁 活动奖励:多发多奖,曝光拉满!
1️⃣ 2026 幸运大奖:从全部有效帖子中随机抽取 1 位,奖励包含:
2026U 仓位体验券
Gate 新年限定礼盒
全年广场首页推荐位曝光
2️⃣ 人气新年帖 TOP 1–10:根据发帖量及互动表现综合排名,奖励包含:
Gate 新年限定礼盒
广场精选帖 5 篇推荐曝光
3️⃣ 新手首帖加成奖励:活动前未在广场发帖的用户,活动期间首次发帖即可获得:
50U 仓位体验券
进入「新年新声」推荐榜单,额外曝光加持
4️⃣ 基础参与奖励:所有符合规则的用户中随机抽取 20 位,赠送新年 F1 红牛周边礼包
参与方式:
1️⃣ 带话题 #我的2026第一条帖 发帖,内容字数需要不少于 30 字
2️⃣ 内容方向不限,可以是以下内容:
写给 2026 的第一句话
新年目标与计划
Web3 领域探索及成长愿景
注意事项
• 禁止抄袭、洗稿及违规
助推谷歌冲击4万亿的TPU,如何在区块链领域大显身手?
作者:Eli5DeFi
编译:Tim,PANews
PANews编者按:11月25日,谷歌总市值创历史新高,达3.96万亿美元,助推股价的因素除了新发布的最强AI Gemini 3,还有其自研芯片TPU。除了AI领域外,TPU在区块链也将大显身手。
现代计算的硬件叙事基本上是由GPU的崛起所定义的。
从游戏到深度学习,英伟达的并行架构已成为业界公认的标准,使得CPU逐渐转向协管角色。
然而,随着AI模型遭遇规模化瓶颈、区块链技术迈向复杂密码学应用,新的竞争者张量处理器(TPU)已然登场。
尽管TPU常被置于谷歌AI战略的框架下讨论,但它的架构却意外契合区块链技术的下一个里程碑后量子密码学的核心需求。
本文通过梳理硬件演进历程、对比架构特性,阐释为何在构建抗量子攻击的去中心化网络时,TPU(而非GPU)更能胜任后量子密码学所需的密集型数学运算。
硬件演进:从串行处理到脉动架构
要理解TPU的重要性,就需要先了解它所解决的问题。
脉动架构优势
GPU与TPU的根本区别在于它们的数据处理方式。
GPU需反复调取内存(寄存器、缓存)进行计算,而TPU采用脉动架构。这种架构如同心脏泵血般,使数据以规律脉动的方式流经大规模计算单元网格。
https://www.ainewshub.org/post/ai-inference-costs-tpu-vs-gpu-2025
计算结果直接传递至下一计算单元,无需写回内存。这种设计极大缓解了冯·诺依曼瓶颈,即数据在内存与处理器间反复移动产生的延迟,从而在特定数学运算上实现吞吐量的数量级提升。
后量子密码学的关键:为何区块链需要TPU?
TPU在区块链领域最关键的应用并非挖矿,而是密码学安全。
当前区块链系统依赖的椭圆曲线密码学或RSA加密体系,在应对Shor算法时存在致命弱点。这意味着一旦出现足够强大的量子计算机,攻击者就能从公钥反推出私钥,足以彻底清空比特币或以太坊上的所有加密资产。
解决之道在于后量子密码学。目前主流的PQC标准算法(如Kyber、Dilithium)均基于Lattice密码学构建。
TPU的数学契合性
这正是TPU相较GPU的优势。Lattice密码学严重依赖大型矩阵和向量的密集操作,主要包括:
传统GPU将这些运算视为通用并行任务处理,而TPU则通过硬件层级固化的矩阵计算单元实现专属加速。Lattice密码学的数学结构,与TPU脉动阵列的物理构造几乎形成严丝合缝的拓扑映射。
TPU与GPU的技术博弈
尽管GPU仍是业界通用的万能王者,但在处理特定数学密集型任务时,TPU具有绝对优势。
结论:GPU胜在通用性与生态系统,而TPU则在密集线性代数计算效率上占据优势,而这正是AI与现代先进密码学所依赖的核心数学运算。
TPU拓展叙事:零知识证明与去中心化AI
除后量子密码学外,TPU在Web3另两大关键领域也展现出应用潜力。
零知识证明
ZK-Rollups(如Starknet或zkSync)作为以太坊的扩容方案,其证明生成过程需要完成海量计算,主要包括:
这类运算并非ASIC擅长的哈希计算,而是多项式数学。相较于通用CPU,TPU能显著加速FFT和多项式承诺运算;而由于这类算法具有可预测的数据流特性,TPU通常比GPU能实现更高效率的加速。
随着Bittensor等去中心化AI网络的兴起,网络节点需具备运行AI模型推理的能力。运行通用大语言模型本质上就是在执行海量矩阵乘法运算。
相较于GPU集群,TPU能使去中心化节点以更低能耗处理AI推理请求,从而提升去中心化AI的商业可行性。
TPU生态版图
尽管当前多数项目因CUDA的普及性仍依赖GPU,但以下领域在TPU集成方面蓄势待发,尤其在后量子密码学与零知识证明的叙事框架下极具发展潜力。
零知识证明与扩容方案
为何选择TPU?因为ZK证明生成需要大规模并行处理多项式运算,而在特定架构配置下,TPU对此类任务的处理效率远超通用GPU。
去中心化AI与代理型计算
为何选择TPU?这正是TPU的原生应用场景,专为加速神经网络机器学习任务而设计。
后量子密码学网络
为何选择TPU?后量子密码学的核心运算常涉及格中最短向量问题,这类需要密集矩阵与向量运算的任务,与AI工作负载在计算架构上具有高度相似性。
发展瓶颈:为何TPU尚未全面普及?
若TPU在后量子密码学与零知识证明领域如此高效,为何行业仍在抢购H100芯片?
结论:分层架构才是未来
Web3硬件的未来并非一场赢家通吃的竞争,而是正朝着分层架构的方向演进。
GPU将继续承担通用计算、图形渲染及需处理复杂分支逻辑任务的主力角色。
TPU(及同类ASIC化加速器)将逐步成为Web3"数学层"的标准配置,专门用于生成零知识证明与验证后量子密码学签名。
随着区块链向后量子安全标准迁移,交易签名与验证所需的海量矩阵运算将使TPU的脉动架构不再是可选项,而成为构建可扩展的量子安全去中心化网络的必备基础设施。