所以黃仁勳在 ALL-IN 播客中談到了去中心化 AI 訓練,TAO 大力推廣


猜猜看,@0g_labs 已經在 2025 年 6 月證明了這一點 (幾乎是一年前),通過在 arXiv 上發布 DiLoCoX 論文來訓練 AI 模型
他們用 20 台電腦,僅用 1 Gbps 的網路,訓練了一個 1070 億參數的模型
與 Bittensor Covenant 72B ((一個已訓練完成的模型)相比,DiLoCoX 不僅可以訓練任何模型,還能使通信效率提升 357 倍
它背後有完整的技術堆疊:計算、存儲、去中心化身份(DA)和鏈。沒有任何一個項目擁有全部四層
團隊將於 4 月 1 日在 EthCC Cannes 談論去中心化 AI,敬請期待 🙌
TAO-6.85%
0G-3.98%
查看原文
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言