2026年,推理将推动七成GPU需求
AI计算市场正在经历结构性变革,为去中心化物理基础设施网络(DePIN)创造了独特的角色。尽管前沿AI模型训练仍集中在超大规模数据中心,但据Ovia Systems首席执行官Nökkvi Dan Ellidason表示,该行业已达到“推理引爆点”。就在2024年,训练主导了GPU使用,但预计到2026年,七成的需求将由推理、AI代理和预测工作负载驱动。这一转变将AI计算从一项巨大的、一次性研究成本,转变为持续扩展的公用事业开支,为更经济高效的处理方案创造了机会。
去中心化网络提供高性价比的AI工作负载
前沿AI训练需要数千个GPU以完美的低延迟同步运行——这种设置只有在紧密集成的集中式设施中才可能实现。例如,Meta使用了一个由十万多块英伟达H100 GPU组成的集群来训练其Llama 4模型。Ellidason将此比作建造一座摩天大楼,工人们在同一个脚手架上手递手地传递砖块。在去中心化网络上尝试这样做,就像单独邮寄每一块砖,效率将非常低下。然而,推理工作负载则不同。它们可以分解为更小、独立的任务,这使其非常适合分布式网络。
推理是规模化业务,它随每一个部署的模型和代理循环而扩展。在这种情况下,成本、弹性和地理分布比完美的互连更为重要。
— Fluence联合创始人Evgeny Ponomarev
这使得使用消费级GPU的去中心化网络更适合优先考虑吞吐量和灵活性的生产AI任务。根据Salad Technologies首席执行官Bob Miles的说法,这些网络在AI药物发现、大规模数据处理和文本到图像生成等成本敏感型工作负载方面具有卓越的性价比。此外,全球分布式网络可以通过在更靠近用户地理位置的地方处理请求来降低最终用户的延迟,从而避免多次跳转到遥远的数据中心。
消费级GPU成为AI的互补层
去中心化GPU网络并非取代超大规模提供商,而是在AI技术堆栈中扮演着至关重要的互补层角色。随着开源模型变得更加高效,以及英伟达RTX 4090或5090等消费级硬件变得更加强大,更广泛的AI任务可以在集中式数据中心之外执行。这使得普通用户和小型运营商能够将其闲置的GPU资源贡献给网络。
这种动态使得去中心化平台能够吸收AI市场中专注于推理和其他可并行化任务的不断增长的份额。它们为AI计算中一个重要且不断扩大的细分市场提供了经济高效且地理分布广泛的替代方案,有效地使处理能力民主化,超越了主导大规模模型训练的少数科技巨头。