在 AI 模型開發領域,訓練大型語言模型長期依賴高成本硬體及雲端資源,導致技術長時間集中於少數大型機構手中。
(來源:tether)
Tether 這次推出的 QVAC Fabric,專為 BitNet(1-bit 大型語言模型)設計全新 LoRA 微調框架,有效降低運算資源與記憶體需求,讓一般使用者也能參與 AI 模型訓練。
QVAC Fabric 的一大核心優勢在於其廣泛的硬體相容性。此框架可在多元裝置上運行,包括:
這代表 AI 模型訓練與推論不再受限於資料中心或專業設備,而能於日常裝置上實現。
此項技術的一大亮點,就是成功於行動裝置上完成模型微調。
例如:
團隊甚至成功於手機上運行高達 13B 參數的模型,顯示行動裝置的 AI 潛力大幅提升。
與傳統模型相比,BitNet 架構在效能及資源使用上展現顯著優勢:
這些改進讓 AI 應用更容易於邊緣裝置落地。
傳統 AI 訓練高度依賴 NVIDIA 硬體與雲端服務,QVAC Fabric 則突破此一限制,首次讓 1-bit LLM 能在非 NVIDIA 硬體上進行 LoRA 微調,包含 AMD、Intel、Apple Silicon 及行動 GPU(如 Adreno、Mali)。這不僅降低成本,更促進 AI 開發分散化。
QVAC Fabric 的另一項關鍵價值,在於支援資料隱私與分散式學習:
這為未來 AI 生態帶來更安全且具擴展性的發展方向。
Paolo Ardoino 指出,AI 將在未來社會中扮演關鍵角色,其發展不應由少數資源掌握者壟斷。他強調,若 AI 訓練過度依賴中心化架構,不僅會限制創新,也可能影響整體生態穩定。因此,讓 AI 能於個人裝置上運行,是推動技術普及的重要一步。
Tether 推出的 QVAC Fabric 不僅是技術創新,更象徵 AI 發展模式的潛在轉變。透過降低硬體門檛與強化跨平台能力,大型語言模型正逐步走出資料中心,進入每個人的日常裝置。未來,隨著這類技術持續成熟,AI 有望從集中化資源邁向更開放、分散且普及的新階段。





