0G Labs 剛剛做成了一件讓AI圈比較震撼的大事——
在“網速只有1Gbps”的普通網絡環境下,沒錯就算是你辦公室WiFi速度下 , 成功訓練了全球首個 1000億參數的分佈式LLM模型。
這很可能會顛覆Ai的產業格局:
AI 訓練,從此不再是“超算俱樂部”專屬。
現在中小企業、創業團隊、甚至高校實驗室也能用自己的設備參與訓練了。
這背後的關鍵技術,叫 DiLoCoX(低通信訓練框架),
核心思路:通過「通信延遲容忍」「自適應梯度壓縮」「流水線並行」
把原本對帶寬、硬件極度依賴的大模型訓練,
變成“普通網絡也能玩得轉”的分佈式任務。
訓練速度比以前提高了了 300倍,
而基礎設施成本直接砍掉 95%。
最關鍵的是,0G做的這套完全是 去中心化的。
它不依賴任何單一巨頭,不需要雲廠商的許可,
只要連接上網絡,人人皆可以成為ai訓練節點
數據始終存儲在本地、模型同步全鏈路透明。
為了實現這場變革,0G Labs 正與全球範圍內的企業、運營商與開發者協作,打造一張“去中心化 AI 訓練網絡”。
AI算力依賴於中心化巨頭的遊戲規則,@0G_labs 正在重寫。
@0g_CN @Galxe #Starboard #0G #Yaps #KaitoAI
@KaitoAI

AI 基礎的重大變革正在進行中,而 0G Labs 正在引領這一變革。
@sandy_carter 在 @Forbes 上的最新文章捕捉了 @0G_Research 的最新突破:0G 訓練了迄今為止最大的分佈式 LLM - 超過 100B 的參數。
深入了解 →

7,751
79
本頁面內容由第三方提供。除非另有說明,OKX 不是所引用文章的作者,也不對此類材料主張任何版權。該內容僅供參考,並不代表 OKX 觀點,不作為任何形式的認可,也不應被視為投資建議或購買或出售數字資產的招攬。在使用生成式人工智能提供摘要或其他信息的情況下,此類人工智能生成的內容可能不準確或不一致。請閱讀鏈接文章,瞭解更多詳情和信息。OKX 不對第三方網站上的內容負責。包含穩定幣、NFTs 等在內的數字資產涉及較高程度的風險,其價值可能會產生較大波動。請根據自身財務狀況,仔細考慮交易或持有數字資產是否適合您。