Un changement structurel dans l'architecture des serveurs IA devrait prolonger la période de boom de l'industrie de la mémoire, les analystes prévoyant désormais que le super cycle actuel s'étendra jusqu'en 2027.
Un changement fondamental dans l'architecture de l'intelligence artificielle est en train de remodeler le marché des puces mémoire de 170 milliards de dollars, alors que les principaux fabricants de CPU comme Intel et AMD conçoivent des puces nécessitant jusqu'à 400 Go de RAM DDR5. Cette explosion de la demande, alimentée par le pivot de l'industrie de l'entraînement vers l'inférence de l'IA, crée un déséquilibre entre l'offre et la demande si grave que les analystes prédisent désormais que le « super cycle » actuel des semi-conducteurs passera de 2026 à 2027.
« Il ne s'agit pas d'un pic temporaire alimenté par une seule vague technologique. C'est un changement structurel de la demande qui remodèle l'économie de la NAND sur le long terme », a écrit Michael Wu, président du fabricant de contrôleurs NAND Phison Technology, dans une récente chronique pour Forbes, soulignant un écart par rapport aux cycles historiques d'expansion et de ralentissement de l'industrie.
Le marché montre déjà des signes de tension. Selon les données des sociétés de bourse coréennes, le prix au comptant des modules DDR5 de 16 Go a augmenté de 2,8 % en avril, alors même que le prix des modules DDR4 de l'ancienne génération chutait de 16 %. Cette divergence reflète un déficit d'approvisionnement à l'échelle du marché pour la mémoire haute performance estimé à environ 10 % de la demande totale. Les nouveaux CPU de serveur, qui présentent des configurations de mémoire de 300 à 400 Go, représentent un bond massif par rapport aux 96-256 Go courants dans les générations précédentes.
cette augmentation spectaculaire du coût du matériel est une conséquence directe de l'orientation stratégique de l'industrie vers l'inférence IA, qui génère des revenus à long terme grâce à l'exécution de modèles. Ce changement est une aubaine pour les fabricants de mémoire comme Samsung et SK Hynix, mais présente un défi de coût important pour leurs plus gros clients — les exploitants de centres de données comme Meta et Microsoft. Ces géants de la technologie sont désormais contraints de signer des accords d'approvisionnement pluriannuels de plusieurs milliards de dollars pour sécuriser leur chaîne d'approvisionnement en mémoire, une stratégie confirmée par le producteur de mémoire Sandisk, qui a récemment révélé plus de 11 milliards de dollars de tels accords.
De l'Entraînement à l'Inférence : Un Nouveau Paradigme pour la Mémoire
Le principal moteur de la poussée de la mémoire est l'évolution du rôle du CPU dans les systèmes d'IA. Par le passé, les centres de données étaient construits autour des GPU pour le travail lourd de l'entraînement de l'IA, avec un serveur typique comportant huit GPU pour chaque CPU. Mais alors que l'attention se porte sur l'inférence — l'exécution continue de modèles entraînés — le CPU devient un « coordinateur IA », gérant plusieurs agents IA et leurs sorties.
Ce nouveau rôle nécessite une « mémoire contextuelle » massive pour suivre et synthétiser les sorties de différents modèles d'IA en temps réel. Une seule conversation avec un grand modèle de langage comme Llama 3 peut générer plus de 60 Go de données qui doivent être stockées et consultées, selon une analyse de VAST Data. En conséquence, le rapport CPU/GPU dans les serveurs d'inférence se réduit de 1 pour 8 vers 1 pour 4, certains experts voyant une voie vers une configuration 1 pour 1.
La Ruée sur l'Approvisionnement Fait Bondir les Coûts par 10
Les implications matérielles de ce changement sont stupéfiantes. Selon Willy Shih, professeur à la Harvard Business School, un serveur IA typique peut nécessiter dix fois plus de mémoire qu'un serveur de centre de données conventionnel. Cela a placé les fabricants de mémoire, qui opèrent toujours avec la discipline d'investissement prudente apprise lors des précédents effondrements du marché, dans une position difficile. La construction de nouvelles usines de fabrication est une entreprise de plusieurs années et de plusieurs milliards de dollars, ce qui signifie que l'offre ne peut pas augmenter à la vitesse de la demande en IA.
L'impact financier est déjà visible dans les rapports de résultats de la Big Tech. Meta a récemment cité la hausse des prix de la mémoire comme l'une des principales raisons de l'augmentation de ses prévisions de dépenses d'investissement. Microsoft a également souligné que les coûts des composants représentaient environ 25 milliards de dollars sur ses 190 milliards de dollars de dépenses d'investissement prévues pour l'année civile 2026. Même Apple, qui dispose d'un immense pouvoir de négociation, a averti les investisseurs que la pénurie de mémoire pourrait affecter ses activités à l'avenir.
Pour les investisseurs, la prolongation du super cycle laisse présager une rentabilité soutenue pour les fabricants de mémoire comme Samsung, SK Hynix et Micron. Cependant, cela signale également une pression persistante sur les marges pour les fournisseurs de cloud à grande échelle et les autres entreprises qui construisent une infrastructure d'IA, un vent contraire qui devrait maintenant durer jusqu'en 2027.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.