作者:CJ_Blockchain
2025年2月3日,一款名為DeepSeek-R1模型悄然上線了國家超算互聯網平台。
在隨後的一個月裡,因其性能直接對標頂級閉源模型,和堪比“白菜價”的訓練成本直接席捲了全球。
引發了美股AI股們的暴跌和開啟了屬於中國AI的“DeepSeek”時刻。

2026年3月10日,Bittensor的Subnet 3 Templar,宣布完成了歷史上規模最大的去中心化大語言模型(LLM)預訓練運行——Covenant-72B
這是歷史上規模最大的去中心化大語言模型預訓練運行:
72億參數、在約1.1萬億token數據集上、完全通過 Bittensor Subnet 3 的網絡實現、無需許可、超過70個獨立節點自由參與。
Bittensor迎來了屬於自己的DeepSeek時刻。
Templar 的前身為 Omega Labs 營運的 SN3,早期側重於多模態數據的收集與挖掘。隨著 Bittensor 機制的演進,該子網完成了從“數據搬運工”向“模型鑄造師”的戰略跨越。
當前 Templar 定位於全球分散式大模型預訓練基礎設施。它通過激勵機制匯聚全球異構算力,旨在解決大模型訓練中極其昂貴的計算成本與中心化審查問題。Covenant-72B 的成功交付,驗證了這一去中心化生產模式的成熟度。
Covenant-72B 是 Templar 產出的里程碑式成果,也是目前去中心化網絡中規模最大的稠密架構預訓練模型。
在普通互聯網環境下訓練 72B 規模的模型,最大的挑戰在於節點間的通信帶寬瓶頸。Templar 採用了核心算法 SparseLoCo 實現了質的突破:
這種技術路徑證明了:即便沒有 InfiniBand 等昂貴的專線集群,依靠全球分布式的普通網絡同樣可以產出頂級智能。
Templar 的技術成果引起了主流 AI 圈與資本市場的關注:
Anthropic 聯合創始人 Jack Clark 在其分析報告中將 Templar 歸類為全球最大的活躍去中心化訓練網絡,並指出其發展速度超出了行業預期。
Jason Calacanis(All-In Podcast 主持人、知名硅谷投資者)在最近的部落格中深度介紹了Bittensor的機制,並暗示大家購買
灰度 (Grayscale) 持續增持 TAO,並將其作為去中心化 AI 赛道的核心持倉。
DCG成立了Yuma,專門聚焦於加速 Bittensor (TAO) 生態的發展,被視為 DCG 對去中心化 AI(decentralized AI)最大、最直接的押注。

$TAO: 隨著Templar宣布完成了72B的大模型訓練,TAO在此後上漲超過30%,在BTC的震盪行情中展現出了絕對的強勢。
$Templar (SN-3):主角Templar 7天內上漲75%,稱為Bittensor當前捕獲Emission排放的龍一。當前Market Cap僅為 70m

Templar 的成功為 Bittensor 生態打開了全新的想像空間:
Templar 當前 MC=75m,FDV=350m
而當前主流的大模型公司Open AI 估值8400億、Anthropic 3500億、Minimax 450億。
並不是說Templar能直接對標這些公司,但在當前這個敘事稀缺、注意力消散、人們不再相信去中心化的圈子,Templar的出現無疑為去中心化AI打入了一劑強心劑。
Templar 證明了去中心化環境不僅能存儲數據,更能生產智能。Covenant-72B 僅僅是個開始,隨著 SN3(預訓練)、SN39(算力)與 SN81(強化學習)的縱向整合,一個運行在區塊鏈上的、去中心化的 OpenAI 雛形已然浮現。
Crypto行業從誕生到今天,已經證偽了無數的敘事,增加風靡一時的去中心化存儲、去中心化算力、去中心化計算機都已經看似被證偽,但很高興仍然有項目在去中心化的道路上堅定前行並做出了成績。
Templar的成功不僅是Bittensor的DeepSeek時刻,可能也是Crypto的DeepSeek時刻。