L'explosion de la demande en infrastructures d'IA remodèle le marché de la connectivité des centres de données, créant une bataille non seulement entre le cuivre et la fibre optique, mais aussi pour savoir qui captera les profits du matériel qui sous-tend l'intelligence artificielle. Un nouveau rapport de Bernstein trace un avenir où la technologie Co-Packaged Optics (CPO) déplacera fondamentalement la chaîne de valeur, profitant aux concepteurs de puces comme Nvidia et Broadcom au détriment des fabricants traditionnels de modules optiques, même si l'adoption généralisée de cette technologie n'est pas prévue avant plusieurs années.
« La transition vers la CPO réécrit l'allocation de la valeur au sein de l'industrie », ont noté les analystes de Bernstein dans leur récent livre blanc. Le rapport estime que si le prix de vente moyen d'une combinaison de moteur optique CPO et de laser est environ 10 % plus élevé que celui d'un module enfichable 1,6T comparable, le centre de profit se déplace de manière décisive des assembleurs de modules vers les entreprises contrôlant la conception des puces, l'emballage avancé et la fabrication des plaquettes.
L'expansion de l'infrastructure d'IA se déroule selon deux axes distincts : le « scale-up », qui ajoute des ressources de calcul au sein d'un seul rack de serveurs, et le « scale-out », qui connecte un grand nombre de racks en grappes massives. Les interconnexions en cuivre, grâce à leur faible coût et leur maturité, continueront de dominer les systèmes de scale-up à courte portée pendant au moins les trois prochaines années, comme on le voit dans l'architecture GB200 NVL72 de Nvidia. Cependant, pour connecter des racks sur de plus longues distances dans des conceptions de scale-out, les interconnexions optiques sont essentielles. Les données de LightCounting montrent que le marché des émetteurs-récepteurs optiques Ethernet devrait croître à un taux annuel composé de 59 % de 2024 à 2026, avant de se stabiliser à 15 % jusqu'en 2030.
Cette bifurcation signifie que l'avenir n'est pas un simple remplacement du cuivre par la fibre, mais une coexistence. Le véritable enjeu réside dans la manière dont ces systèmes sont construits. La CPO, qui intègre les moteurs optiques directement sur le même substrat qu'une puce de commutateur ou de processeur, promet une réduction de 40 % du coût par bit, selon Broadcom. Pourtant, cette intégration s'accompagne de défis importants en matière de fabrication, de test et de maintenance qui retarderont son déploiement massif.
L'adoption de la CPO face à l'horizon 2028 en raison d'obstacles de fiabilité
Malgré les avantages en termes de performances, la CPO ne devrait pas connaître de déploiement à grande échelle avant 2028, selon Bernstein et LightCounting. Les principaux obstacles sont la complexité de fabrication et les préoccupations liées à la maintenance. Comme les composants optiques sont emballés à l'intérieur du commutateur, une défaillance pourrait nécessiter le remplacement de l'unité entière, un processus coûteux et chronophage par rapport au remplacement d'un module enfichable en quelques minutes.
Nvidia prévoit un déploiement de commutateurs CPO à petite échelle au second semestre 2026 avec des adoptants précoces comme les fournisseurs de cloud IA CoreWeave et Lambda pour tester la technologie en conditions réelles. Avant que la CPO ne devienne dominante, l'industrie devrait s'appuyer sur la Linear Pluggable Optics (LPO) comme solution de transition. Les modules LPO, qui suppriment la puce DSP énergivore, peuvent réduire la consommation d'énergie de deux tiers tout en conservant la facilité d'entretien d'une conception enfichable. Bernstein prévoit que les livraisons de LPO dépasseront probablement celles de CPO avant 2030.
Les contraintes de la chaîne d'approvisionnement créent des frictions de capitaux se chiffrant en milliards
La transition s'opère dans un contexte de forte pression sur la chaîne d'approvisionnement. Les dépenses mondiales en IA devraient atteindre 2 500 milliards de dollars d'ici 2026, mais cette croissance est freinée par des contraintes réelles. L'Amérique du Nord pourrait avoir besoin à elle seule de 92 gigawatts de nouvelle capacité électrique pour les centres de données, tandis que l'industrie pourrait consommer jusqu'à 70 % de la production mondiale de puces mémoire. Un fournisseur de composants optiques a noté dans un récent rapport que la croissance de son chiffre d'affaires datacom était limitée par des pénuries de lasers, de mémoire et d'ASIC.
Ces goulots d'étranglement créent un exercice d'équilibriste à enjeux élevés où, comme l'a noté un cadre de l'industrie, un simple décalage de 5 % entre l'offre et la demande peut se traduire par des milliards de dollars de capital immobilisé ou de manque à gagner. Cet environnement valorise les capacités d'emballage avancé et de fonderie d'entreprises comme TSMC et des sociétés de test et d'assemblage de semi-conducteurs sous-traités (OSAT), qui deviennent les principaux bénéficiaires du virage vers la CPO aux côtés des concepteurs de puces Nvidia et Broadcom. Pour les investisseurs, l'essentiel est que la valeur du boom de l'IA se concentre entre les mains des quelques entreprises capables de maîtriser la complexité de l'intégration au niveau du silicium.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.