去中心化GPU網路將自身定位為運行AI工作負載的低成本層,而最新模型的訓練仍然集中在超大型資料中心內。
前沿AI訓練涉及構建最大、最先進的系統,這一過程需要數千枚GPU高效協同運作。
這種等級的協作使得去中心化網路在頂級AI訓練中難以實現,因為網際網路的延遲和可靠性無法與集中式資料中心中高度耦合的硬體相比擬。
大多數生產環境下的AI工作負載並不類似於大規模模型訓練,這為去中心化網路承接推論和日常任務提供了空間。
(我們現在開始看到,很多開源及其他模型已經足夠精簡且優化,可以高效地在消費級GPU上運行。)Theta Network聯合創辦人暨執行長Mitch Liu向Cointelegraph表示,(這正在推動整個產業向開源、更有效率的模型以及更具經濟效益的處理方式轉變。)

從前沿AI訓練到日常推論
前沿訓練主要集中在少數超大型運營商手中,因為運行大型訓練任務的成本和複雜度極高。最新的AI硬體,例如Nvidia的Vera Rubin,被設計用於優化整合資料中心環境下的效能。
(你可以把前沿AI模型的訓練比作建造一座摩天大樓,)基礎設施公司Ovia Systems(前身為Gaimin)執行長Nökkvi Dan Ellidason對Cointelegraph表示,(在集中式資料中心,所有工人都在同一個鷹架上,手動傳遞磚塊。)
這種一體化程度使分散式網路中常見的鬆散協作和延遲波動幾乎沒有空間。
(如果要在去中心化網路中建造同樣的摩天大樓,他們必須透過開放網際網路把每塊磚郵寄給對方,這效率極低。)Ellidason補充道。

Meta訓練其Llama 4 AI模型時,使用了超過100,000枚Nvidia H100 GPU組成的集群。OpenAI未揭露用於模型訓練的GPU集群規模,不過其基礎設施負責人Anuj Saharan表示,GPT-5上線時獲得了超過200,000枚GPU的支援,但並未具體說明這些運算能力中有多少用於訓練,多少用於推論或其他工作負載。
推論指的是運行已訓練模型,為使用者和應用產生回應。Ellidason稱,AI市場已達到(推論臨界點)。雖然在2024年GPU需求仍以訓練為主,他估計到2026年,推論、智能體和預測型工作負載將推動多達70%的需求。
(這讓算力從研究成本轉變為持續擴張的公用事業成本,)Ellidason說,(因此,內部循環驅動的需求倍增效應使去中心化運算在混合架構中成為可行選項。)
去中心化GPU網路的實際定位
去中心化GPU網路最適合於可以分割、路由並獨立執行的工作負載,無需機器間持續同步。
(推論是一個體量巨大的商業領域,並且會隨著每個部署的模型和智能體迴路而擴張,)去中心化運算平台Fluence聯合創辦人Evgeny Ponomarev對Cointelegraph表示,(在這個領域,成本、彈性和地理分布比完美互聯更為重要。)
實際上,這意味著消費級環境下的去中心化GPU和遊戲級GPU對於追求吞吐量和彈性,而非高度協調的生產工作負載更加合適。

(消費級GPU VRAM較低且家用網路連線環境下,既不適合訓練,也不適合對延遲極為敏感的負載,)閒置消費級GPU聚合平台Salad Technologies執行長Bob Miles對Cointelegraph說。
(現在,它們更適用於AI藥物發現、文字生成圖像/影片、大規模資料處理等對成本敏感的場景——在價格與效能方面,消費級GPU具有優勢。)
去中心化GPU網路同樣適合於蒐集、清洗、準備訓練資料等任務。這類任務往往需要廣泛存取網際網路,並可在不需緊密協調的情況下平行運作。
Miles表示,這類工作在沒有大量代理層基礎設施的前提下,在超大型資料中心內高效運行難度較大。
當服務全球使用者時,去中心化模型具備地理優勢,因為它可以減少使用者請求到資料中心所需的物理距離和多次網路跳轉,從而降低延遲。
(在去中心化模式中,GPU分布在全球眾多地點,通常更接近終端使用者。因此,使用者與GPU之間的時延明顯較低,優於統一將流量路由至集中式資料中心,)Theta Network的劉明杰表示。
Theta Network正面臨兩名前員工於2025年12月在洛杉磯地區提起的詐欺及代幣操控相關訴訟。劉明杰稱目前訴訟尚未結案,因此無法評論。Theta此前已否認相關指控。
AI運算的互補層
前沿AI訓練在可預見時期內仍將保持集中化,但AI運算正逐步轉向推論、智能體以及需較鬆散協作的生產工作負載。這類工作負載更加注重成本效率、地理分布和彈性。
(本輪週期出現了大量雖不及ChatGPT規模,但運行在配備RTX 4090或5090等GPU個人電腦上的開源模型,)Theta技術負責人Jieyi Long對Cointelegraph表示。
Long指出,藉助該級別硬體,使用者可以本地運行擴散模型、3D重建模型以及其他有意義的工作負載,這為零售使用者共享自身GPU資源創造了機會。
去中心化GPU網路並非超大型運營商的替代方案,但正逐漸成為AI算力結構中的互補層。
隨著消費級硬體不斷升級、開源模型日益高效,越來越多AI任務逐步從集中式資料中心外溢,讓去中心化模型在AI體系中占有一席之地。

