2026年までにGPU需要の70%を推論が牽引
AIコンピューティング市場は構造的な変化を遂げており、分散型物理インフラネットワーク(DePIN)に独自の役割を与えています。フロンティアAIモデルのトレーニングはハイパースケールデータセンターに集中したままである一方、Ovia SystemsのCEOであるNökkvi Dan Ellidason氏によると、業界は「推論の転換点」に達しました。2024年時点ではトレーニングがGPUの使用を支配していましたが、2026年までに需要の推定70%は推論、AIエージェント、および予測ワークロードによって駆動されると見られています。この転換は、AIコンピューティングを莫大な一度限りの研究コストから、継続的に拡張するユーティリティ費用へと変え、より経済的な処理ソリューションへの道を開いています。
分散型ネットワークが費用対効果の高いAIワークロードを提供
フロンティアAIのトレーニングには、完全に低遅延で同期して動作する数千のGPUが必要です。これは、緊密に統合された集中型施設でのみ可能な設定です。例えば、MetaはLlama 4モデルをトレーニングするために、10万台以上のNvidia H100 GPUクラスターを使用しました。Ellidason氏はこれを、作業員が同じ足場の上で手渡しでレンガを渡しながら高層ビルを建てることに例えています。これを分散型ネットワーク上で試みることは、各レンガを個別に郵送するようなもので、非常に非効率的です。しかし、推論ワークロードは異なります。これらはより小さく、独立したタスクに分割できるため、分散型ネットワークに理想的です。
推論はボリュームビジネスであり、展開されたすべてのモデルとエージェントループとともにスケールします。ここが、完璧な相互接続よりもコスト、弾力性、地理的広がりが重要になる点です。
— Fluenceの共同創設者 Evgeny Ponomarev
これにより、コンシューマーグレードGPUを使用する分散型ネットワークは、スループットと柔軟性を優先する本番AIタスクにさらに適しています。Salad TechnologiesのCEOであるBob Miles氏によると、これらのネットワークは、AI創薬、大規模データ処理、テキストから画像生成などのコストに敏感なワークロードにおいて、価格性能比に優れています。さらに、グローバルに分散されたネットワークは、要求を地理的な場所に近い場所で処理することでエンドユーザーのレイテンシーを削減し、遠隔のデータセンターへの複数回のホップを回避できます。
コンシューマーGPUが補完的なAIレイヤーとして登場
分散型GPUネットワークは、ハイパースケーラーに取って代わるものではなく、AI技術スタックにおける不可欠な補完レイヤーとしての役割を確立しています。オープンソースモデルがより効率的になり、NvidiaのRTX 4090や5090のようなコンシューマーハードウェアがより強力になるにつれて、より広範なAIタスクが集中型データセンターの外部で実行できるようになります。これにより、一般ユーザーや小規模なオペレーターは、アイドル状態のGPUリソースをネットワークに提供できます。
このダイナミクスにより、分散型プラットフォームは、推論やその他の並列化可能なジョブに焦点を当てたAI市場の成長するシェアを吸収する位置にあります。これらは、AI計算の重要かつ拡大するセグメントに対して、費用対効果が高く地理的に分散された代替手段を提供し、大規模なモデルトレーニングを支配する少数のテクノロジー大手を超えて、処理能力へのアクセスを効果的に民主化します。