Tether 推出跨平台 BitNet LoRA 框架,用于在消费者设备上进行 AI 训练

CryptoPulse Elite

Tether Launches Cross-Platform BitNet LoRA Framework for AI Training on Consumer Devices 泰特的QVAC部门于2026年3月17日宣布推出全球首个面向微软BitNet模型(1位LLMs)的跨平台LoRA微调框架,实现了在消费者GPU和智能手机上进行亿参数AI训练与推理。

该框架集成于QVAC Fabric中,显著降低了内存和计算需求,使在包括iPhone 16、Galaxy S25和Pixel 9在内的设备上微调高达130亿参数的模型成为可能,125M参数模型在移动硬件上大约10分钟即可完成训练。

此次发布标志着泰特战略重心从稳定币发行商向更广泛基础设施提供商的重大转变,挑战由云服务提供商和专用NVIDIA硬件主导的集中式AI开发模式。

技术突破:边缘设备上的BitNet LoRA

跨平台能力

QVAC Fabric框架支持在异构消费硬件上进行LoRA(低秩适应)微调和推理加速,包括:

桌面GPU:AMD、Intel和NVIDIA

苹果生态系统:Apple Silicon M芯片和Bionic移动GPU

移动GPU:Adreno(三星)、Mali等

这一广泛兼容性消除了之前对企业级NVIDIA系统或云基础设施的依赖,打破了AI开发集中在拥有专用硬件预算的组织中的局面。

移动端性能基准

泰特工程团队在旗舰智能手机上成功完成微调,取得以下成果:

125M参数模型:在三星Galaxy S25(Adreno GPU)上对约300份(约18k tokens)生物医学数据集微调约10分钟

1B参数模型:在三星S25上用约1小时18分钟完成相同生物医学数据的微调,在iPhone 16上用约1小时45分钟

最大容量:在iPhone 16上成功微调高达130亿参数的模型,远超典型的3B以下参数演示的边缘设备能力

推理性能提升

BitNet在移动GPU上的推理表现相比CPU基线有显著加速:

  • 速度提升:GPU性能比CPU快2到11倍(测试设备范围内)

  • 实际意义:移动GPU现可支持此前需专用昂贵硬件或数据中心的工作负载

内存效率优势

可量化的减少

基准测试显示,与传统模型相比,显存节省显著:

  • BitNet-1B(TQ1_0):比Gemma-3-1B(16位)节省高达77.8%的显存

  • 与Qwen3-0.6B对比:比16位版本少65.6%的显存

这些节省适用于推理和LoRA微调工作负载,为硬件上原本不足以支持更大模型和个性化流程提供了宝贵的内存空间。

架构优势

该框架使在边缘设备上微调比Q4非BitNet模型大两倍的模型成为可能,彰显了BitNet架构的卓越内存效率。

战略意义

去中心化AI开发

泰特CEO帕奥洛·阿尔多伊诺将此次发布置于更广泛的可访问AI愿景中:“智能将成为未来社会的关键决定因素。当训练大型语言模型依赖集中式基础设施时,创新停滞,生态系统脆弱,社会平衡受到威胁。通过在包括智能手机在内的消费者硬件上实现有意义的大模型训练,泰特的QVAC证明了先进AI可以去中心化、包容且赋能每个人。”

联邦学习的实现

效率提升使得联邦学习成为可能,允许在分布式设备上训练和共享微调更新,同时保持敏感用户数据的本地化。这减少了对集中式基础设施的依赖,促进了模型的协作改进。

数据隐私优势

通过减少对云提供商的依赖,该框架使用户在微调过程中可以将敏感数据留在本地设备,解决了将数据传输到集中服务器的隐私担忧。

竞争定位

挑战科技巨头的AI壁垒

泰特的发布直接挑战由超大规模云服务商主导的集中式AI开发模式。通过在消费者硬件上实现有意义的AI工作,泰特将自己定位为边缘AI基础设施的重要玩家,独立于传统云端管辖。

开源推广

该框架,包括论文、适配器、基准测试和跨平台二进制文件,已在Hugging Face上开源。此举旨在让独立开发者和小型实验室能够在消费者硬件上部署AI,建立超越传统监管框架的文化和技术相关性。

泰特的战略转型

此次发布延续了泰特从稳定币发行向关键数字基础设施扩展的战略,继之前的QVAC项目,包括410亿代币的Genesis I数据集和本地AI工作台。公司已表示将在“未来数周、数月和数年”持续投资去中心化AI基础设施。

技术可用性

完整的技术文档,包括性能基准、实现细节和跨平台二进制文件,可通过Hugging Face博客获取:“通过QVAC Fabric在异构边缘GPU上进行LoRA微调BitNet b1.58 LLMs”。

关于泰特

泰特将其使命描述为通过技术推动自由、透明和创新,实现无需中介的点对点信息交流。公司旨在用去中心化基础设施取代集中式模型,强调隐私、效率和韧性。

常见问题

泰特新AI框架支持哪些硬件?

QVAC Fabric BitNet LoRA框架支持AMD、Intel和NVIDIA的消费级GPU;苹果生态系统,包括Silicon M芯片和Bionic移动GPU;以及Adreno(三星)、Mali等移动GPU。这使得在笔记本、台式机和旗舰智能手机上进行AI微调成为可能,无需专用企业硬件。

移动GPU推理速度比CPU快多少?

根据泰特的基准测试,旗舰移动设备上的GPU推理速度比CPU快2到11倍。与传统模型相比,显存使用最多节省77.8%,使得在相同硬件限制下可以运行更大模型。

在手机上微调13B参数模型有何意义?

在手机上微调130亿参数模型代表了从以往主要在设备上演示的3B以下模型或将更重工作负载转移到云端的模式的重大飞跃。这表明未来可以在本地进行模型个性化和领域适应,无需将用户数据传输到集中服务器。

查看原文
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论