2026年,推論將推動七成GPU需求
AI計算市場正在經歷結構性變革,為去中心化物理基礎設施網絡(DePIN)創造了獨特的角色。儘管前沿AI模型訓練仍集中在超大規模數據中心,但據Ovia Systems首席執行官Nökkvi Dan Ellidason表示,該行業已達到「推論引爆點」。就在2024年,訓練主導了GPU使用,但預計到2026年,七成的需求將由推論、AI代理和預測工作負載驅動。這一轉變將AI計算從一項巨大的、一次性研究成本,轉變為持續擴展的公用事業開支,為更經濟高效的處理方案創造了機會。
去中心化網絡提供高性價比的AI工作負載
前沿AI訓練需要數千個GPU以完美的低延遲同步運行——這種設置只有在緊密集成的集中式設施中才可能實現。例如,Meta使用了一個由十萬多塊英偉達H100 GPU組成的集群來訓練其Llama 4模型。Ellidason將此比作建造一座摩天大樓,工人們在同一個腳手架上手遞手地傳遞磚塊。在去中心化網絡上嘗試這樣做,就像單獨郵寄每一塊磚,效率將非常低下。然而,推論工作負載則不同。它們可以分解為更小、獨立的任務,這使其非常適合分佈式網絡。
推論是規模化業務,它隨每一個部署的模型和代理循環而擴展。在這種情況下,成本、彈性和地理分佈比完美的互連更為重要。
— Fluence聯合創始人Evgeny Ponomarev
這使得使用消費級GPU的去中心化網絡更適合優先考慮吞吐量和靈活性的生產AI任務。根據Salad Technologies首席執行官Bob Miles的說法,這些網絡在AI藥物發現、大規模數據處理和文本到圖像生成等成本敏感型工作負載方面具有卓越的性價比。此外,全球分佈式網絡可以透過在更靠近用戶地理位置的地方處理請求來降低最終用戶的延遲,從而避免多次跳轉到遙遠的數據中心。
消費級GPU成為AI的互補層
去中心化GPU網絡並非取代超大規模提供商,而是在AI技術堆棧中扮演著至關重要的互補層角色。隨著開源模型變得更加高效,以及英偉達RTX 4090或5090等消費級硬件變得更加強大,更廣泛的AI任務可以在集中式數據中心之外執行。這使得普通用戶和小型運營商能夠將其閒置的GPU資源貢獻給網絡。
這種動態使得去中心化平台能夠吸收AI市場中專注於推論和其他可並行化任務的持續增長份額。它們為AI計算中一個重要且不斷擴大的細分市場提供了經濟高效且地理分佈廣泛的替代方案,有效地使處理能力民主化,超越了主導大規模模型訓練的少數科技巨頭。