Công ty khởi nghiệp trí tuệ nhân tạo xAI dưới sự điều hành của Elon Musk đang xây dựng siêu máy tính lớn nhất thế giới tại Memphis, Tennessee, Hoa Kỳ. Khoản đầu tư 400 triệu USD (tương đương 10.300 tỷ đồng) được dùng để xây dựng một cơ sở chứa 1 triệu GPU, cung cấp năng lượng cho mô hình AI Grok 3 của xAI. Theo trang thống kê SimilarWeb, lượng người truy cập web trung bình hàng ngày vào Grok đã đạt 16,5 triệu người trên toàn cầu vào tháng 3/2025. Con số này tương đương với chatbot của DeepSeek trong cùng kỳ.
So với 500 triệu người dùng hoạt động hàng tuần của ChatGPT, con số này vẫn còn khiêm tốn, nhưng xAI và DeepSeek đang cạnh tranh quyết liệt để giành vị trí thứ hai. Đáng chú ý, trong khi lượng người truy cập hàng ngày vào DeepSeek giảm 25% so với tháng 2/2025, Grok lại cho thấy sự tăng trưởng đáng kể.
Tuy nhiên, xAI đang gặp phải vấn đề đó là lưới điện phục vụ khu vực này không đủ công suất để cung cấp năng lượng cho cơ sở khổng lồ này.
Phòng quy hoạch của Quận Memphis và Shelby đã nhận được 14 đơn xin cấp phép xây dựng từ xAI từ tháng 6/2024 đến nay. Do lưới điện Memphis hiện tại không có đủ công suất để đáp ứng các yêu cầu của xAI, vì vậy công ty cần tìm giải pháp thay thế. Công ty tiện ích Memphis Light Gas and Water đã phê duyệt 150 megawatt (MW) từ yêu cầu ban đầu là 300 MW do xAI đưa ra. Việc chạy 1 triệu GPU sẽ cần hơn 1 gigawatt điện, vượt quá khả năng của lưới điện Memphis.
Công ty AI xAI sử dụng máy phát điện chạy bằng khí từ Caterpillar Solar Turbines để mở rộng công suất điện của mình lên hơn 250 MW. Công ty đã nộp đơn xin lắp đặt tua bin khí tại các cơ sở của mình trong khi đang tìm hiểu về việc xây dựng nhà máy phát điện của riêng mình. Cơ quan quản lý Thung lũng Tennessee (TVA) đã công bố khoản đầu tư 16 tỷ USD để phát triển mạng lưới cơ sở hạ tầng điện của mình nhằm hỗ trợ nhu cầu năng lượng ngày càng tăng của xAI và các công ty công nghệ khác đang hoạt động tại Tennessee.

Công ty liên kết với xAI cũng đã mua 186 mẫu Anh đất trị giá 80 triệu USD nằm ở phía nam của địa điểm ban đầu vào tháng 3/2025. Địa điểm mới cung cấp không gian tiềm năng để xây dựng thêm cơ sở hạ tầng và năng lực năng lượng. Chính quyền Memphis vẫn còn nghi ngờ về khả năng của lưới điện thành phố trong việc hỗ trợ dự án khổng lồ này.
Nhu cầu năng lượng ngày càng tăng của siêu máy tính chạy bằng trí tuệ nhân tạo tạo ra thách thức về cơ sở hạ tầng điện cho các nhà phát triển.
Những cỗ máy ngốn năng lượng
AI tiêu tốn nhiều năng lượng chủ yếu do cách nó được huấn luyện và vận hành, đặc biệt là với các mô hình lớn như mô hình ngôn ngữ hay trí tuệ nhân tạo tổng quát. Dưới đây là những lý do chính:
1. Huấn luyện mô hình phức tạp
Để tạo ra một AI thông minh, cần huấn luyện nó trên khối lượng dữ liệu khổng lồ. Quá trình này đòi hỏi hàng triệu, thậm chí hàng tỷ phép tính được thực hiện bởi các máy tính mạnh mẽ, thường là các GPU (bộ xử lý đồ họa) hoặc TPU (bộ xử lý tensor). Những thiết bị này tiêu thụ rất nhiều điện vì chúng phải hoạt động liên tục trong nhiều ngày, thậm chí hàng tháng, để tối ưu hóa mô hình.
2. Quy mô dữ liệu và tính toán khổng lồ
Các mô hình AI hiện đại, được huấn luyện trên hàng terabyte dữ liệu (văn bản, hình ảnh…). Việc xử lý dữ liệu này yêu cầu các trung tâm dữ liệu lớn với hàng nghìn máy chủ, tất cả đều cần điện để chạy và làm mát. Ví dụ, huấn luyện một mô hình như GPT-3 có thể tiêu tốn hàng nghìn megawatt giờ điện – đủ để cung cấp năng lượng cho hàng trăm hộ gia đình trong một năm.

3. Thời gian sử dụng liên tục
Sau khi được huấn luyện, AI vẫn cần năng lượng để hoạt động. Mỗi lần người dùng đặt câu hỏi, AI phải xử lý yêu cầu, tìm kiếm thông tin trong kiến thức của mình và tạo ra câu trả lời. Với hàng triệu người dùng sử dụng AI hàng ngày, năng lượng này cộng dồn lại rất lớn.
4. Cơ sở hạ tầng phụ trợ
Các trung tâm dữ liệu không chỉ cần điện để chạy máy tính mà còn cần hệ thống làm mát mạnh mẽ để ngăn thiết bị quá nhiệt. Điều này làm tăng thêm mức tiêu thụ năng lượng.
Tuy nhiên, không phải tất cả AI đều "ngốn" năng lượng như nhau. Các mô hình nhỏ hơn hoặc được tối ưu hóa tốt hơn có thể tiết kiệm năng lượng hơn so với các mô hình khổng lồ không được tinh chỉnh. Ngoài ra, các nỗ lực sử dụng năng lượng tái tạo và cải thiện hiệu suất phần cứng đang giúp giảm tác động môi trường của AI.