Một sự thay đổi căn bản trong kiến trúc AI có thể đang cận kề, với bộ nhớ, chứ không phải GPU, trở thành trung tâm mới của tính toán.
Dự báo từ giáo sư Joungho Kim của KAIST, người được coi là "cha đẻ của HBM", cho thấy mô hình AI lấy GPU làm trung tâm hiện nay sẽ bị đảo ngược bởi kiến trúc tập trung vào bộ nhớ trong vòng 4 năm tới. Ông lập luận rằng việc chuyển từ AI tạo sinh sang AI đại lý (agentic AI) phức tạp hơn sẽ yêu cầu dung lượng bộ nhớ và băng thông tăng gấp 1.000 lần, một nhu cầu mà công nghệ hiện tại không thể đáp ứng.
"Kỷ nguyên của AI đại lý đòi hỏi một cách tiếp cận mới đối với bộ nhớ," ông Kim tuyên bố, theo báo cáo từ truyền thông Hàn Quốc. Dự báo của ông hướng tới một tương lai nơi các tập dữ liệu khổng lồ được xử lý trực tiếp trong hệ thống bộ nhớ, giảm bớt nút thắt cổ chai do việc vận chuyển dữ liệu qua lại với GPU trung tâm tạo ra.
Cốt lõi của dự đoán này là giải pháp thế hệ tiếp theo có tên High Bandwidth Flash (HBF), bao gồm việc xếp chồng bộ nhớ flash NAND thay vì DRAM được sử dụng trong Bộ nhớ băng thông cao (HBM) ngày nay. Điều này sẽ tạo ra một "giá sách khổng lồ" gồm bộ nhớ dài hạn với dung lượng lớn hơn nhiều. Các mẫu kỹ thuật của HBF dự kiến vào khoảng năm 2027, với khả năng được các ông lớn như Google, Nvidia hoặc AMD áp dụng sớm nhất là vào năm 2028.
Sự thay đổi công nghệ này tạo tiền đề cho một cuộc chiến mới giữa các gã khổng lồ bộ nhớ Hàn Quốc, SK Hynix và Samsung Electronics. Công ty nào có thể tiêu chuẩn hóa và sản xuất hàng loạt thành công công nghệ HBF có thể đảm bảo vị trí thống lĩnh trong giai đoạn tiếp theo của thị trường phần cứng AI, có khả năng thay đổi bối cảnh cạnh tranh hiện do các nhà sản xuất GPU như Nvidia dẫn đầu.
Vấn đề bộ nhớ gấp 1.000 lần
Động lực đằng sau sự gián đoạn kiến trúc được dự đoán này là sự tiến hóa của chính các ứng dụng AI. Khi AI tiến xa hơn việc tạo sinh đơn giản để hướng tới các hệ thống "đại lý" tự trị, lượng dữ liệu, hay "ngữ cảnh", phải được xử lý đồng thời bùng nổ. Giáo sư Kim gọi đây là sự trỗi dậy của "kỹ thuật ngữ cảnh", nơi các đại lý AI phải xử lý các thư viện tài liệu, video và dữ liệu đa phương thức khổng lồ khác để hoạt động hiệu quả.
Để đạt được tốc độ và độ chính xác cần thiết cho các nhiệm vụ này, ông Kim ước tính rằng băng thông và dung lượng bộ nhớ cần một sự cải thiện đáng kinh ngạc gấp 1.000 lần. Một số dự báo do ông Kim trích dẫn cho thấy mức tăng gấp 100 đến 1.000 lần về quy mô đầu vào có thể dẫn đến nhu cầu về bộ nhớ lớn gấp 1 triệu lần so với yêu cầu ngày nay. Công nghệ HBM hiện tại, vốn xếp chồng DRAM theo chiều dọc để truy cập tốc độ cao và là tiêu chuẩn hiện nay trong các bộ tăng tốc AI, sẽ chạm trần dung lượng từ rất lâu trước khi đạt đến các mức đó. HBM giống như một xấp giấy ghi chú nhỏ—truy cập nhanh nhưng dung lượng hạn chế. Ngược lại, HBF được hình dung như cả một bức tường thư viện, cung cấp một cấp độ lưu trữ hoàn toàn khác biệt.
SK Hynix và Samsung vẽ lại ranh giới trận chiến mới
Cuộc đua phát triển bộ nhớ thế hệ tiếp theo này đã diễn ra, lặp lại sự đối đầu gay gắt trong quá trình phát triển HBM. SK Hynix, một công ty dẫn đầu thị trường HBM, đã hành động quyết liệt để thiết lập lợi thế sớm. Vào tháng 2, công ty đã thành lập một liên minh tiêu chuẩn hóa HBF với SanDisk của Western Digital để xây dựng hệ sinh thái xung quanh công nghệ này. SK Hynix cũng đã công bố nghiên cứu về kiến trúc "H3" đặt HBM và HBF mới cạnh nhau với GPU, nhúng hiệu quả đơn vị xử lý vào trong một hệ thống bộ nhớ lớn hơn.
Samsung Electronics đang theo đuổi chiến lược hai luồng. Trong khi tiếp tục thúc đẩy dòng sản phẩm HBM của mình với các sản phẩm như HBM4E, công ty cũng đang phát triển kiến trúc dựa trên NAND của riêng mình phù hợp với khái niệm HBF, theo báo cáo của Aju News. Cuộc cạnh tranh không chỉ là về việc sản xuất một con chip mới, mà là về việc định nghĩa các tiêu chuẩn cho toàn ngành. Người chiến thắng sẽ là người đầu tiên có thể tạo ra một chu kỳ hoàn chỉnh từ thiết lập tiêu chuẩn và thiết kế đến sản xuất hàng loạt, tiết kiệm chi phí, đảm bảo vai trò quan trọng trong tương lai của AI.
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.