Amazon Web Services đang thiết kế lại các trung tâm dữ liệu của mình từ đầu, một nỗ lực to lớn nhằm đáp ứng nhu cầu năng lượng của AI thế hệ tiếp theo.
Amazon đang đại tu việc xây dựng và thiết kế trung tâm dữ liệu với một dự án nội bộ có mã hiệu là "Titus", một phần của kế hoạch chi tiêu vốn kỷ lục 200 tỷ USD trong năm nay nhằm xử lý thế hệ phần cứng trí tuệ nhân tạo tiêu thụ nhiều điện năng mới từ các công ty như Nvidia. Sáng kiến này báo hiệu một sự thay đổi cơ bản trong cách nhà cung cấp đám mây lớn nhất thế giới trang bị cho các cơ sở của mình cho kỷ nguyên AI, tập trung vào tốc độ, hiệu quả và các công nghệ làm mát tiên tiến.
Reyk Knuhtsen, một nhà phân tích tại SemiAnalysis, nói với Business Insider: "Chúng tôi đang thấy Amazon thực sự bứt tốc với các thiết kế mới được tối ưu hóa để triển khai nhanh hơn," và gọi đây là một "động lực chiến lược quan trọng."
Sáng kiến Titus nhằm mục tiêu cắt giảm thời gian từ khi xây dựng đến khi vận hành các trung tâm dữ liệu xuống dưới 35 tuần và tăng công suất cơ sở lên 17%, đạt mức 68 megawatt, theo các tài liệu nội bộ. Một tính năng chính là việc triển khai rộng rãi hơn hệ thống làm mát bằng chất lỏng "In-Row Heat Exchanger" độc quyền của AWS, được thiết kế để giảm 15% mức tiêu thụ điện năng làm mát và hỗ trợ các phần cứng sắp tới như hệ thống máy chủ GB200 và Vera Rubin của Nvidia.
Khoản chi tiêu cơ sở hạ tầng khổng lồ này được thiết kế để bảo vệ sự thống trị của AWS trong lĩnh vực điện toán đám mây trước các đối thủ và giảm chi phí vận hành dài hạn. Việc chuyển sang làm mát bằng chất lỏng nội bộ và kiến trúc điện linh hoạt nhằm tránh tình trạng "năng lượng bị bỏ phí" (stranded power) và giảm 10% chi phí cho mỗi kilowatt, ảnh hưởng trực tiếp đến khả năng sinh lời khi cung cấp dịch vụ AI ở quy mô lớn.
Sự kết thúc của làm mát bằng không khí
Sự bùng nổ của AI đang buộc các trung tâm dữ liệu truyền thống phải đối mặt với các giới hạn vật lý. Khi các GPU từ Nvidia và các nhà sản xuất chip khác trở nên mạnh mẽ gấp bội, chúng cũng tạo ra một lượng nhiệt khổng lồ mà các hệ thống làm mát bằng không khí thông thường khó có thể tản hết. Các tài liệu của Titus cho thấy AWS đang chuẩn bị cho một tương lai nơi làm mát bằng chất lỏng không còn là một giải pháp ngách mà là một sự cần thiết chủ đạo. Hệ thống "In-Row Heat Exchanger" (IRHX) là trung tâm của chiến lược này, cho phép AWS làm mát các giá đỡ (rack) có mật độ điện năng cao hơn mà không cần đại tu toàn bộ cơ sở. Điều này giúp họ sẵn sàng cho các nền tảng GPU Vera Rubin sắp tới của Nvidia, vốn được dự kiến sẽ tăng mức tiêu thụ điện năng đáng kể.
Xây dựng nhanh hơn, xây dựng thông minh hơn
Ngoài việc làm mát, mục tiêu cốt lõi của Titus là tốc độ. AWS đặt mục tiêu rút ngắn thời gian từ khi bắt đầu xây dựng phần thô (shell start) đến khi phòng máy chủ đi vào hoạt động hoàn toàn xuống dưới 35 tuần - một sự tăng tốc đáng kể so với các tiêu chuẩn ngành. Điều này cho phép công ty phản ứng nhanh chóng hơn với nhu cầu tăng vọt về năng lực huấn luyện và suy luận AI. Dự án cũng tập trung vào việc tạo ra các cơ sở thích ứng tốt hơn. Bằng cách thiết kế các kiến trúc điện linh hoạt và giảm năng lượng bị bỏ phí, AWS có thể đảm bảo các trung tâm dữ liệu đắt tiền của mình được sử dụng hiệu quả hơn, đáp ứng nhiều loại khối lượng công việc từ các nhiệm vụ ít cường độ hơn đến việc huấn luyện các mô hình AI đòi hỏi khắt khe nhất.
Giải pháp thay thế ngoài khơi
Trong khi Amazon tăng cường tái thiết kế các cơ sở trên đất liền, các yêu cầu về năng lượng cực lớn của AI đang thúc đẩy một số bên khám phá các khái niệm táo bạo hơn. Các startup như Panthalassa đang phát triển các trung tâm dữ liệu nổi tự hành trên đại dương, chạy bằng năng lượng sóng. Tương tự, Aikido Technologies đang tích hợp các trung tâm dữ liệu với các nền tảng điện gió ngoài khơi. Những nỗ lực này, cùng với các thử nghiệm trong quá khứ như Project Natick của Microsoft, làm nổi bật những thách thức kỹ thuật to lớn mà ngành công nghiệp này phải đối mặt. Tuy nhiên, hiện tại, Amazon đang đặt cược rằng khoản đầu tư vốn khổng lồ và những đổi mới trong thiết kế cũng như hiệu quả trung tâm dữ liệu trên bờ sẽ là con đường khả thi nhất để "đảm bảo tương lai" cho cơ sở hạ tầng của mình trước làn sóng AI sắp tới.
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.