Bittensor 是 Crypto 全村的希望

作者:0xai

特此感謝@DistStateAndMe 及其團隊在開源 AI 模型領域的貢獻,以及對本文提供的寶貴建議與支持。

為什麼你應該關注這篇報告

如果"去中心化 AI 訓練"已經從不可能變成了可能,Bittensor 被低估了多少?

2026 年初,整個 Crypto 圈子瀰漫著一種疲憊感。

上一輪牛市的餘韻早已散去,人才在加速流向 AI 行業。那些曾經談論"下一個 100x"的人,現在聊的是 Claude CodeOpenclaw。“crypto 是在浪費時間”——這句話,你可能不止聽過一次。

但在 2026 年 3 月 10 日,一個叫 Templar 的 Bittensor 子網悄悄宣布了一件事。

70 多個來自全球各地的獨立參與者,沒有中央伺服器,沒有大公司協調,僅憑 Crypto 激勵機制,合力訓練出了一個 720 億參數的 AI 大模型。

模型和相關論文已經發布在 HuggingFace 和 arXiv 上,數據是公開可驗證的。

更關鍵的是:在多項關鍵測試中,這個模型的表現超過了 Meta 花重金訓練的同等級別模型。

公告發出後,TAO 的價格沉默了將近 2 天。直到第 3 天才開始暴漲,6 天後仍未停止,總漲幅約 +40%。為什麼會有這 2 天的延遲?

這篇報告的核心論點是:加密投資者看到的是"又一個開源模型",覺得比不上日常使用的 GPT、Claude;AI 研究者不關注 crypto。兩個圈子之間的鴻溝,正在製造一個認知套利窗口。

閱讀框架

這篇報告分為兩個邏輯部分:

Part I — 技術突破:解釋 SN3 Templar 到底做成了什麼,以及為什麼這件事在 AI 和 Crypto 歷史上具有重要意義。

Part II — 行業意義:解釋為什麼這件事意味著 Bittensor 生態被系統性低估,為什麼說 Bittensor 是 Crypto 全村的希望。

Part I:去中心化 AI 訓練的突破

  1. SN3 是做什麼的?

訓練一個大語言模型需要什麼?

傳統答案:建一個巨型資料中心,買上萬塊頂級 GPU,花上億美元,由一家公司工程師團隊統一協調。這就是 Meta、Google、OpenAI 的玩法。

SN3 Templar 的做法:讓分散在全球各地的人,各自拿出一台或幾台 GPU 伺服器,像拼圖一樣把算力拼在一起,合力訓練一個完整的大模型。

但這裡有個根本難題:如果參與者來自全球各地、互不信任、網路延遲不穩定,怎麼保證訓練結果是有效的?怎麼防止有人偷懶或作弊?怎麼激勵大家持續貢獻?

Bittensor 給出了答案:用 TAO 代幣作為激勵。誰的梯度(可以理解為"對模型改進的貢獻")越有效,誰就獲得越多 TAO。系統自動評分、自動結算,不需要任何中心化機構來協調。

這就是 Bittensor 的 SN3(第 3 號子網),代號 Templar。

如果 Bitcoin 證明了去中心化的"錢"是可能的,SN3 正在證明去中心化的"AI 訓練"也是可能的。

  1. SN3 取得了什麼成果?

2026 年 3 月 10 日,SN3 Templar 宣布完成了名為 Covenant-72B 的大語言模型訓練。

“72B” 是什麼意思?:720 億個參數。參數是 AI 模型的"知識存儲單元",數量越多,模型通常越聰明。GPT-3 是 1750 億,LLaMA-2(Meta 的開源旗艦)是 700 億。Covenant-72B 與 LLaMA-2 是同一數量級。

訓練規模有多大? :約 1.1 萬億個詞(tokens)≈ 550 萬本書(按每本書 20 萬字算)。

誰參與了訓練?:70+ 個獨立參與者(miner)先後貢獻算力(每輪同步上限約 20 個節點),訓練從 2025 年 9 月 12 日啟動,歷時約 6 個月。沒有中央伺服器,沒有統一的機構來協調。

模型表現如何?:用主流 AI 考試來類比:

資料來源:HuggingFace 1Covenant/Covenant-72B-Chat 模型卡

MMLU(57 個學科綜合知識):Covenant-72B 67.35% vs Meta LLaMA-2 63.08%

GSM8K(數學推理):Covenant-72B 63.91% vs Meta LLaMA-2 52.16%

IFEval(指令跟隨能力):Covenant-72B 64.70% vs Meta LLaMA-2 40.67%

完全開源:Apache 2.0 許可證。任何人免費下載、使用、商用,沒有限制。

有學術背書:論文已提交 [arXiv 2603.08163],核心技術(SparseLoCo 優化器和 Gauntlet 反作弊機制)在 NeurIPS Optimization Workshop 發表。

  1. 這個成果意味著什麼?

對開源 AI 社群:過去,因為資金和算力門檻,訓練 70B 級別的大模型是少數大公司的專利。Covenant-72B 第一次證明:社群,在沒有任何中心化資金支持的情況下,也能訓練同等規模的模型。這改變了誰有資格參與 AI 基礎模型開發的邊界。

對 AI 權力結構:現在的 AI 基礎模型格局是高度集中的——OpenAI、Google、Meta、Anthropic 幾家公司掌控著最強的基礎模型。去中心化訓練的成立,意味著這條護城河未必不可逾越。“只有大公司才能做基礎模型” 這個前提,第一次被動搖了。

對 Crypto 行業:這是 crypto 項目第一次在 AI 領域產出真實的技術貢獻,而不只是"蹭熱點"。Covenant-72B 有 HuggingFace 模型、arXiv 論文、公開 Benchmark 數據。這建立了一個先例:Crypto 激勵機制可以成為嚴肅 AI 研究的基礎設施。

對 Bittensor 本身:SN3 的成功把 Bittensor 從一個"理論上可行的去中心化 AI 協議"變成了"已被實踐驗證的去中心化 AI 基礎設施"。這是從 0 到 1 的質變。

  1. SN3 的歷史地位

去中心化 AI 訓練這條路,不是 SN3 第一个走的。但 SN3 走到了前人沒有走到的地方。

去中心化訓練演進史:

2022 — Together GPT-JT(6B):早期探索,證明多機協同可行

2023 — SWARM Intelligence(~1B):提出異構節點協同訓練框架

2024 — INTELLECT-1(10B):跨機構去中心化訓練

2026 — Covenant-72B / SN3(72B):首個在主流 Benchmark 上超越集中式訓練的 72B 大模型

4 年時間,從 6B 跳到 72B,參數量成長了 12 倍。但更重要的不是參數量,而是質量——前幾代項目主要是"能跑起來",Covenant-72B 是第一個在主流 Benchmark 上超越集中式訓練模型的去中心化大模型。

關鍵技術突破:

99% 壓縮率(>146x):每次參與者上傳訓練結果(梯度)時,原本需要傳輸 GB 級數據,SparseLoCo 全流程將其壓縮超過 146 倍。相當於把一整季電視劇壓縮成一張圖片,且資訊損失極小。

僅 6% 通訊開銷:100 個人協同工作,只有 6% 的時間在"溝通協調",94% 都在做實際訓練。這解決了去中心化訓練最大瓶頸之一。

  1. 去中心化訓練是否被低估?

先看數據,再做判斷。

被低估的證據

MMLU 67.35% vs LLaMA-2 63.08%

MMLU-Pro 40.91% vs LLaMA-2 35.20%

IFEval 64.70% vs LLaMA-2 40.67%

去中心化訓練的模型,超越了 Meta 花重金訓練的 LLaMA-2-70B。

與當前頭部開源模型的差距(需要誠實面對):

MMLU: Covenant-72B 67.35% vs Qwen2.5-72B 86.8% vs LLaMA-3.1-70B 83.6%

GSM8K: Covenant-72B 63.91% vs Qwen2.5-72B 95.8% vs LLaMA-3.1-70B 95.1%

差距約 20-30 個百分點。

但對比框架很重要:Covenant-72B 的意義不是打敗 SOTA,而是證明去中心化訓練可行。Qwen2.5 / LLaMA-3.1 背後是千億級投入 + 數萬塊 GPU + 專業工程團隊;Covenant-72B 則是 70+ 獨立礦工 + 無中央協調。

趨勢比快照重要:

2022 年:最好的去中心化模型是 6B 參數,連 MMLU 都沒單獨測。

2026 年:72B 模型,MMLU 67.35%,超越 Meta 同級別模型。

4 年時間,去中心化訓練從"概念實驗"走到了"性能可與集中式訓練比肩"。這條曲線的斜率,比任何單一 Benchmark 數字都更值得關注。

況且,Covenant-72B 在深度推理上的差距,已有規劃的解法——SN81 Grail 負責後訓練強化學習(RLHF),對模型進行對齊和能力提升。這正是 GPT-4 相對 GPT-3 最關鍵的改進步驟。

Heterogeneous SparseLoCo 是下一個里程碑:目前 SN3 要求所有礦工使用相同型號的 GPU。下一個重大技術突破是 Heterogeneous SparseLoCo,它將允許混合硬體(B200 + A100 + 消費級 GPU)參與同一訓練任務。一旦實現,下一輪訓練的算力池將大幅擴展。

去中心化訓練已跨過可行性門檻。當前 Benchmark 上的差距是需要繼續優化的工程問題,不是根本性的理論障礙。

Part II:市場仍然沒有理解這件事

TAO 價格時間線

SN3 公告發出後$TAO 的價格走勢,恰好揭示了這種認知滯後:

注意這 2 天的沉默(3/10 → 3/12):公告發出,價格幾乎沒動。

為什麼會有滯後?

加密投資者看到的消息是"Bittensor SN3 訓練完成了一個 AI 模型"——但他們不一定理解"72B 去中心化訓練在 MMLU 上超越 Meta"的技術意義。

AI 研究者能理解這個技術意義,但他們不關注 crypto。

兩個圈子的認知差,創造了約 2-3 天的價格滯後窗口。

並且,大多數 Crypto 投資者對 Bittensor 的認知仍停留在上個周期。如今,Bittensor 上活躍子網已超過 79 個,覆蓋 AI Agent、算力、AI 訓練、AI 交易、機器人等截然不同的領域。當市場重新定價 Bittensor 的生態廣度時,這種認知差會被修正——而修正的過程,通常以價格暴漲的形式呈現。

Bittensor 的估值錯位

將 Bittensor 放入更大的產業背景:

SN3 已經證明:Bittensor 可以完成去中心化的大模型訓練。

如果未來 AI 需要開放、無需許可的訓練網路,那麼目前唯一已經被實踐驗證的候選基礎設施,就是 Bittensor。

市場正在用應用層項目的估值邏輯定價一個 AI 基礎設施級別的網路。

即使只在 Crypto 內部比較:Bitcoin 在整個 Crypto 市場中的市佔率長期達到 50~60%,而 Bittensor 在 Crypto AI 赛道中的占比僅約 11.5%。

當市場重新理解 Bittensor 在 AI 基礎設施中的位置時,這種錯位必然會被修正。

結論:Bittensor 是 Crypto 全村的希望

如果說 SN3 Templar 的 Covenant-72B 證明了一件事,那就是:

去中心化網路不僅可以協調資本,也可以協調算力與前沿 AI 研發。

過去幾年,Crypto 在 AI 叙事中大多只是邊緣角色。大量項目依賴概念包裝、情緒炒作或資本敘事,但缺乏可驗證的技術產出。SN3 是一個明顯不同的案例。

它沒有推出新的 token 叙事,也沒有包裝一個"AI + Web3"的應用層產品,而是完成了一件更底層、更困難的事情:

在沒有中心化協調的情況下,訓練出了一個 72B 級別的大模型。

參與者來自全球各地,彼此無需信任;系統依靠鏈上的激勵與驗證機制自動協調訓練貢獻與收益分配。

Crypto 機制第一次在 AI 領域組織出了真實的生產力。

很多人還沒有理解 SN3 的歷史意義。就像當年很多人也沒有意識到,Bitcoin 證明的不是"更好的支付",而是無需中心信用的價值共識。

今天很多人看到的仍然只是 benchmark、模型發布、或一輪價格上漲。

但真正發生的變化是,Bittensor 正在證明:

Crypto 不只是能發行資產,它還能組織生產

Crypto 不只是能交易注意力,它還能生產智能

開源社群可以貢獻程式碼,學術界可以貢獻論文,但當問題進入超大規模訓練、長期協作、跨地域調度、反作弊與收益分配時,善意和聲譽體系遠遠不夠:

沒有經濟激勵,就沒有穩定供給

沒有可驗證的獎懲,就沒有長期協作

沒有代幣化協調機制,就無法形成真正全球化、無許可的 AI 生產網路

所以,Bittensor 是不是被低估了?答案不是"可能",而是"顯著地、系統性地被低估了"。

在"Crypto 是否還有存在意義"這場總辯論裡,Bittensor 正在給出全行業最有力的一份答案。

也正因如此:Bittensor 是 Crypto 全村的希望。

TAO-3.71%
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言