Sự chuyển đổi cấu trúc trong kiến trúc máy chủ AI được dự báo sẽ kéo dài thời kỳ bùng nổ của ngành công nghiệp bộ nhớ, với các nhà phân tích hiện dự đoán siêu chu kỳ hiện tại sẽ kéo dài đến năm 2027.
Một sự thay đổi căn bản trong kiến trúc trí tuệ nhân tạo đang định hình lại thị trường chip bộ nhớ trị giá 170 tỷ USD, khi các nhà sản xuất CPU lớn như Intel và AMD thiết kế các chip yêu cầu tới 400GB RAM DDR5. Sự gia tăng nhu cầu này, được thúc đẩy bởi sự chuyển dịch của ngành từ huấn luyện AI sang suy luận, đang tạo ra sự mất cân bằng cung-cầu nghiêm trọng đến mức các nhà phân tích hiện dự đoán "siêu chu kỳ" bán dẫn hiện tại sẽ kéo dài từ năm 2026 sang năm 2027.
"Đây không phải là một đợt tăng đột biến tạm thời do một làn sóng công nghệ đơn lẻ thúc đẩy. Đó là một sự thay đổi cấu trúc trong nhu cầu đang định hình lại kinh tế học NAND trong dài hạn," Michael Wu, chủ tịch nhà sản xuất bộ điều khiển NAND Phison Technology, đã viết trong một chuyên mục trên Forbes gần đây, nhấn mạnh sự khác biệt so với các chu kỳ bùng nổ và suy thoái lịch sử của ngành.
Thị trường đã có những dấu hiệu căng thẳng. Theo dữ liệu từ các công ty chứng khoán Hàn Quốc, giá giao ngay cho các mô-đun DDR5 16GB đã tăng 2,8% trong tháng 4, ngay cả khi giá cho các mô-đun DDR4 thế hệ cũ giảm 16%. Sự phân hóa này phản ánh tình trạng thiếu hụt nguồn cung bộ nhớ hiệu suất cao trên toàn thị trường, ước tính khoảng 10% tổng nhu cầu. Các CPU máy chủ mới, có cấu hình bộ nhớ từ 300-400GB, thể hiện một bước nhảy vọt so với mức 96-256GB phổ biến ở các thế hệ trước.
Sự gia tăng đáng kể chi phí phần cứng này là hệ quả trực tiếp từ trọng tâm chiến lược của ngành vào suy luận AI, giúp tạo ra doanh thu dài hạn từ việc chạy các mô hình. Sự thay đổi này là một lợi thế cho các nhà sản xuất bộ nhớ như Samsung và SK Hynix nhưng lại đặt ra thách thức chi phí đáng kể cho những khách hàng lớn nhất của họ—các nhà khai thác trung tâm dữ liệu như Meta và Microsoft. Các gã khổng lồ công nghệ này hiện đang buộc phải ký các thỏa thuận cung ứng trị giá hàng tỷ đô la trong nhiều năm để đảm bảo chuỗi cung ứng bộ nhớ của họ, một chiến lược đã được nhà sản xuất bộ nhớ Sandisk xác nhận khi gần đây tiết lộ các thỏa thuận như vậy trị giá hơn 11 tỷ USD.
Từ Huấn luyện đến Suy luận: Một Kỷ nguyên Bộ nhớ Mới
Động lực cốt lõi của sự gia tăng bộ nhớ là vai trò đang phát triển của CPU trong các hệ thống AI. Trong quá khứ, các trung tâm dữ liệu được xây dựng xung quanh GPU cho các công việc huấn luyện AI nặng nề, với một máy chủ điển hình có tám GPU cho mỗi một CPU. Nhưng khi trọng tâm chuyển sang suy luận—việc chạy liên tục các mô hình đã được huấn luyện—CPU đang trở thành một "điều phối viên AI", quản lý nhiều tác nhân AI và kết quả đầu ra của chúng.
Vai trò mới này đòi hỏi "bộ nhớ ngữ cảnh" khổng lồ để theo dõi và tổng hợp kết quả từ các mô hình AI khác nhau trong thời gian thực. Một cuộc hội thoại đơn lẻ với một mô hình ngôn ngữ lớn như Llama 3 có thể tạo ra hơn 60GB dữ liệu cần được lưu trữ và truy cập, theo một phân tích của VAST Data. Kết quả là, tỷ lệ CPU-trên-GPU trong các máy chủ suy luận đang thu hẹp từ 1-8 hướng tới 1-4, với một số chuyên gia nhận thấy lộ trình đạt cấu hình 1-1.
Cuộc đua Nguồn cung khiến Chi phí Tăng 10 lần
Hệ quả phần cứng của sự chuyển dịch này là rất lớn. Theo Willy Shih, giáo sư tại Trường Kinh doanh Harvard, một máy chủ AI điển hình có thể yêu cầu lượng bộ nhớ gấp mười lần so với máy chủ trung tâm dữ liệu truyền thống. Điều này đã đẩy các nhà sản xuất bộ nhớ, những người vẫn đang hoạt động với kỷ luật đầu tư thận trọng rút ra từ những lần thị trường sụp đổ trước đó, vào thế khó. Việc xây dựng các nhà máy chế tạo mới là một nỗ lực kéo dài nhiều năm và tiêu tốn hàng tỷ đô la, nghĩa là nguồn cung không thể tăng tốc theo tốc độ nhu cầu AI.
Tác động tài chính đã có thể thấy rõ trong các báo cáo thu nhập của Big Tech. Meta gần đây đã trích dẫn giá bộ nhớ tăng là lý do chính cho việc tăng hướng dẫn chi tiêu vốn. Microsoft cũng chỉ ra chi phí linh kiện cho khoảng 25 tỷ USD trong số 190 tỷ USD dự kiến chi tiêu vốn cho năm dương lịch 2026. Ngay cả Apple, công ty có quyền thương lượng to lớn, cũng đã cảnh báo các nhà đầu tư rằng tình trạng khan hiếm bộ nhớ có thể ảnh hưởng đến hoạt động kinh doanh của mình trong tương lai.
Đối với các nhà đầu tư, siêu chu kỳ kéo dài cho thấy khả năng sinh lời bền vững cho các nhà sản xuất bộ nhớ như Samsung, SK Hynix và Micron. Tuy nhiên, nó cũng báo hiệu áp lực tỷ suất lợi nhuận liên tục cho các nhà cung cấp đám mây quy mô lớn và các công ty khác đang xây dựng cơ sở hạ tầng AI, một trở ngại hiện được dự kiến sẽ kéo dài đến năm 2027.
Bài viết này chỉ nhằm mục đích cung cấp thông tin và không cấu thành lời khuyên đầu tư.