稳定币发行商 Tether 今(17)日宣布,其 AI 基础设施 QVAC Fabric 推出重大技术突破:全球首个支持跨平台的 BitNet LoRA 微调框架,让过去需要企业级 GPU 与云端算力的大型语言模型,如今可在一般消费级硬件上完成训练与推理,甚至包括智能手机。
手机也能训练 LLM:1B 模型 1 小时内完成
根据 Tether 公布数据,该框架已成功在多种设备上实现 BitNet 模型微调,包括常见的 Samsung S25、iPhone 16。
Samsung S25(Adreno GPU):
1.25 亿参数模型:约 10 分钟完成微调
10 亿参数模型:约 1 小时 18 分钟
iPhone 16(Apple GPU):
10 亿参数:约 1 小时 45 分钟
极限测试最高可达 130 亿参数模型微调
过去都是用 NVIDIA 高阶 GPU 执行的 AI 训练任务,已被压缩到手机等边缘设备上。
关键技术 BitNet + LoRA:将 AI 成本砍到骨折
此次突破的核心在于两项技术的结合:
BitNet(1-bit LLM)
将传统高精度权重压缩为仅 -1、0、1 三种值,大幅降低内存与计算需求。
LoRA(低秩适应)
仅训练少量参数(可减少高达 99% 训练量),大幅降低微调成本?
两者结合后,使模型能在极低资源环境下运行。
实测显示 BitNet-1B 比 Gemma-3-1B 少 77.8% VRAM,比 Qwen3-0.6B 少 65.6% VRAM。同等硬件下,可运行约 2 倍更大模型。
GPU 解锁手机 AI:性能最高提升 11 倍
QVAC 另一个关键突破,是让 BitNet 真正跑在「非 NVIDIA」生态上。支持来自 AMD、Intel、Apple Silicon 的 GPU,甚至是手机 GPU:Adreno、Mali、Apple Bionic。
大型语言模型不再是科技巨头专利,AI 也能去中心化
Tether 执行长 Paolo Ardoino 表示:「智能将是未来社会发展的关键决定因素。它有潜力提升社会稳定性,成为连接社会的纽带,或进一步赋能少数精英。人工智能的未来应该是人人可及、人人可用、人人可及的,而不应占用只有少数云端服务提供者才能获取的巨额资源。」
传统 AI 开发高度依赖云端与大型 GPU 叢集,成本高昂、技术集中于少数科技巨头。Tether 的 QVAC 平台支持在包括智能手机在内的消费级硬件上进行有意义的大型模型训练,证明了先进的人工智能可以去中心化、包容性强。在未来几个月内,将继续投入大量资源和资金,以确保人工智能能够随时随地在本地设备上使用。
这篇文章 AI 不再是科技巨头专利!Tether 推 QVAC,人手一个 LLM 的时刻到了? 最早出现在 链新闻 ABMedia。