Tether 旗下数据与 AI 部门 QVAC 于 3 月 17 日发布重大技术突破,推出全球首款支持微软 BitNet(1-bit LLM)架构的跨平台 LoRA 微调框架。这项整合进 QVAC Fabric 的技术大幅降低了内存与运算需求,让亿级参数模型不再是企业级 GPU 的专利,实现了在普通手机与笔记本电脑上的“本地化、全隐私”训练。
(前情提要:Tether 投资 Axiym 扩大支付基础设施布局:推动 USDT 融入全球合规支付网络)
(背景补充:Tether 跨界投资 AI 睡眠科技!领投 Eight Sleep 5000 万美元,估值冲上 15 亿美元)
本文目录
Toggle
在人工智能(AI)领域,训练强大模型一直被视为“烧钱”的代名词,高度依赖昂贵的 NVIDIA 系统或云端算力。然而,稳定币巨头 Tether 正试图用技术改写这个规则。Tether 旗下的技术部门“Tether Data”于 3 月 17 日宣布,正式为其 QVAC(QuantumVerse Automatic Computer)平台推出全球首个跨平台 BitNet LoRA 微调框架。
这项技术的核心价值在于:它能让具备“亿级参数规模(Billion-parameter)”的 AI 模型,在每个口袋里的手机上直接进行个性化学习。
这项突破性进展建基于微软(Microsoft)推出的 BitNet 1-bit LLM 架构。通过 QVAC Fabric 的优化,BitNet 模型的内存占用与计算压力被降至极低水平。根据公告,该框架不仅支持常见的 NVIDIA GPU,更实现了对 Intel、AMD、Apple M 系列芯片以及移动端 Adreno(Android)、Mali、Apple Bionic GPU 的全面兼容。
这意味着,原本只能在数据中心运行的 AI,现在可以在你的手机上进行“Low-Rank Adaptation(LoRA)”微调。Tether 指出,这项技术能让边缘设备处理比传统 Q4 量化模型“更大 2 倍”的模型,展现出极致的内存优势。
Tether 工程团队在公告中分享了令人振奋的实测数据,展示了该框架在现代手机上的实战能力:
Tether 执行长 Paolo Ardoino 一直强调:“如果你需要 API 密钥才能使用 AI,那它就不真正属于你。”QVAC 的核心理念即是“本地优先(Local-first)”。
通过 BitNet LoRA 框架,用户可以让 AI 直接学习本地的邮件、笔记与信息,而无需将任何数据上传至云端服务器。这不仅消除了企业对敏感数据被滥用的疑虑,更打破了 AI 开发仅由少数巨头垄断的现状。目前,QVAC Fabric LLM 已作为开源软件(Apache 2.0 授权)发布,并在 Hugging Face 提供预设适配器,让全球开发者能够立即启动这场边缘计算的革命。