Tether 推出全球首个手机端「十亿级 AI 训练框架」,iPhone、Samsung 都能跑 LoRA

動區BlockTempo

Tether 旗下数据与 AI 部门 QVAC 于 3 月 17 日发布重大技术突破,推出全球首款支持微软 BitNet(1-bit LLM)架构的跨平台 LoRA 微调框架。这项整合进 QVAC Fabric 的技术大幅降低了内存与运算需求,让亿级参数模型不再是企业级 GPU 的专利,实现了在普通手机与笔记本电脑上的“本地化、全隐私”训练。
(前情提要:Tether 投资 Axiym 扩大支付基础设施布局:推动 USDT 融入全球合规支付网络)
(背景补充:Tether 跨界投资 AI 睡眠科技!领投 Eight Sleep 5000 万美元,估值冲上 15 亿美元)

本文目录

Toggle

  • 1-bit 架构魔力:让手机性能“以小博大”
  • 实测数据曝光:Samsung S25 与 iPhone 16 的惊人速度
  • 告别 API 密钥,打造 100% 隐私的个人 AI

在人工智能(AI)领域,训练强大模型一直被视为“烧钱”的代名词,高度依赖昂贵的 NVIDIA 系统或云端算力。然而,稳定币巨头 Tether 正试图用技术改写这个规则。Tether 旗下的技术部门“Tether Data”于 3 月 17 日宣布,正式为其 QVAC(QuantumVerse Automatic Computer)平台推出全球首个跨平台 BitNet LoRA 微调框架。

这项技术的核心价值在于:它能让具备“亿级参数规模(Billion-parameter)”的 AI 模型,在每个口袋里的手机上直接进行个性化学习。

1-bit 架构魔力:让手机性能“以小博大”

这项突破性进展建基于微软(Microsoft)推出的 BitNet 1-bit LLM 架构。通过 QVAC Fabric 的优化,BitNet 模型的内存占用与计算压力被降至极低水平。根据公告,该框架不仅支持常见的 NVIDIA GPU,更实现了对 Intel、AMD、Apple M 系列芯片以及移动端 Adreno(Android)、Mali、Apple Bionic GPU 的全面兼容。

这意味着,原本只能在数据中心运行的 AI,现在可以在你的手机上进行“Low-Rank Adaptation(LoRA)”微调。Tether 指出,这项技术能让边缘设备处理比传统 Q4 量化模型“更大 2 倍”的模型,展现出极致的内存优势。

实测数据曝光:Samsung S25 与 iPhone 16 的惊人速度

Tether 工程团队在公告中分享了令人振奋的实测数据,展示了该框架在现代手机上的实战能力:

  • **1.25 亿参数模型:**在 Samsung S25 上微调一个包含 300 份生物医学文件的数据集,仅需约 10 分钟
  • **10 亿(1B)参数模型:**完成同样的微调任务,在 Samsung S25 上耗时 1 小时 18 分钟,而在 iPhone 16 上则为 1 小时 45 分钟。
  • **极限挑战:**开发团队成功在 iPhone 16 上运行高达 130 亿(13B)参数 模型进行微调,推向了移动设备的物理极限。

告别 API 密钥,打造 100% 隐私的个人 AI

Tether 执行长 Paolo Ardoino 一直强调:“如果你需要 API 密钥才能使用 AI,那它就不真正属于你。”QVAC 的核心理念即是“本地优先(Local-first)”。

通过 BitNet LoRA 框架,用户可以让 AI 直接学习本地的邮件、笔记与信息,而无需将任何数据上传至云端服务器。这不仅消除了企业对敏感数据被滥用的疑虑,更打破了 AI 开发仅由少数巨头垄断的现状。目前,QVAC Fabric LLM 已作为开源软件(Apache 2.0 授权)发布,并在 Hugging Face 提供预设适配器,让全球开发者能够立即启动这场边缘计算的革命。

查看原文
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论