VTV.vn - Trí tuệ nhân tạo đang phát triển mạnh mẽ, nhưng đằng sau đó là bài toán năng lượng ngày càng trở nên nghiêm trọng hơn.
Phía sau sự phát triển mạnh mẽ của AI là một vấn đề ít được nhắc đến: ngành công nghiệp này đang tiêu tốn một lượng năng lượng rất lớn, đến mức nhiều chuyên gia cảnh báo rằng, nếu không có biện pháp giải quyết, AI có thể trở thành nguyên nhân chính dẫn đến sự cạn kiệt tài nguyên năng lượng toàn cầu.
Chi phí năng lượng của một mô hình AI
Những chatbot như , Gemini hay Claude có vẻ đơn giản là phần mềm, nhưng để vận hành chúng, một hệ thống siêu máy tính khổng lồ hoạt động liên tục trên toàn thế giới. Mỗi khi người dùng đưa ra câu hỏi, hàng triệu phép toán được xử lý tại các trung tâm dữ liệu, tiêu tốn một lượng điện năng khổng lồ.
Một nghiên cứu từ MIT Technology Review chỉ ra rằng, việc huấn luyện một mô hình AI lớn có thể tiêu thụ năng lượng nhiều hơn so với mức tiêu thụ trung bình của một thành phố nhỏ trong cả năm. Ví dụ, quá trình huấn luyện GPT-4 - mô hình AI của OpenAI - đã tiêu tốn năng lượng tương đương với lượng điện của 175.000 hộ gia đình Mỹ trong một ngày.

(Ảnh minh hoạ: Unsplash)
Tình trạng này không chỉ xảy ra ở Mỹ. Tại Anh, một báo cáo từ The Guardian cho thấy, nếu ngành AI tiếp tục phát triển với tốc độ hiện tại, nó có thể chiếm đến 10% tổng mức tiêu thụ điện năng toàn cầu vào năm 2030.
Trong một buổi hội thảo tại Stanford, một nhà nghiên cứu đã đưa ra một con số gây bất ngờ: nếu OpenAI mở rộng hệ thống của mình để phục vụ toàn bộ dân số thế giới, chỉ riêng sẽ cần một lượng điện năng đủ để vận hành một quốc gia cỡ trung bình như Argentina.
Những trung tâm dữ liệu nóng như “lò nung”
Để hiểu rõ hơn, chúng ta hãy nhìn vào các trung tâm dữ liệu - nơi tất cả các phép toán AI diễn ra. Những tòa nhà khổng lồ này chứa hàng trăm nghìn máy chủ, hoạt động liên tục suốt ngày đêm, tạo ra lượng nhiệt vô cùng lớn.
Ở Phoenix, Arizona - một trong những trung tâm dữ liệu lớn nhất tại Mỹ - kỹ sư Michael Green đã kể lại một sự cố nghiêm trọng: “Một ngày nọ, hệ thống làm mát gặp trục trặc. Trong chưa đầy một giờ, nhiệt độ trong phòng máy chủ tăng vọt lên hơn 500C. Nếu không kịp thời khắc phục, hàng triệu USD giá trị dữ liệu và thiết bị có thể đã bị phá hủy”.

(Ảnh minh hoạ: Ollie Hirst)
Không chỉ là vấn đề nhiệt độ, nước cũng đóng vai trò quan trọng. Theo báo cáo từ The New York Times, các trung tâm dữ liệu AI tiêu thụ một lượng nước khổng lồ để làm mát. Một trung tâm dữ liệu cỡ lớn của Google ở Iowa có thể sử dụng tới 1 tỷ lít nước mỗi năm, tương đương với nhu cầu nước của một thành phố 10.000 dân.
Ở nhiều quốc gia, điều này đang tạo ra những cuộc xung đột về tài nguyên. Tại Hà Lan, chính phủ đã phải can thiệp sau khi người dân địa phương phản đối việc một trung tâm dữ liệu của Microsoft lấy nước từ nguồn cung cấp công cộng để làm mát hệ thống.
Các công ty công nghệ phản ứng ra sao?
Nhận thức được vấn đề, các ông lớn trong ngành công nghệ đang tích cực tìm kiếm giải pháp.
Google cam kết sẽ chuyển sang sử dụng 100% năng lượng tái tạo cho các trung tâm dữ liệu vào năm 2030. Amazon đang đổ hàng tỷ USD vào các trang trại điện gió và năng lượng mặt trời. Microsoft thậm chí còn thử nghiệm với hệ thống trung tâm dữ liệu dưới đáy biển, nơi nước lạnh tự nhiên giúp giảm nhu cầu làm mát.

(Ảnh: AP)
Nhưng liệu những nỗ lực này có đủ để bù đắp cho tốc độ tiêu thụ điện năng ngày càng gia tăng của AI?
Tiến sĩ Kate Crawford, một chuyên gia về AI tại University of Southern California, cho biết: “Ngay cả khi chúng ta chuyển sang sử dụng năng lượng tái tạo, AI vẫn tiêu thụ nhiều tài nguyên hơn mức mà chúng ta có thể tái tạo trong thời gian ngắn. Vấn đề không chỉ là điện năng, mà còn là nước, kim loại quý và chất bán dẫn”.
AI có thể tự cứu chính mình?
Một câu hỏi thú vị được đặt ra: Liệu AI có thể tự giảm mức tiêu thụ năng lượng của chính nó?
Câu trả lời có thể là có. Các nhà khoa học đang phát triển những phiên bản AI hiệu quả hơn, đòi hỏi ít năng lượng hơn để hoạt động. Một số công nghệ mới như AI lượng tử và các vi xử lý AI chuyên dụng (như TPU của Google hay M-series của Apple) đang giúp giảm mức tiêu thụ điện.
Một ví dụ điển hình là DeepMind, công ty AI thuộc Google, đã sử dụng chính AI để tối ưu hóa hệ thống làm mát trung tâm dữ liệu. Kết quả đạt được là tiết kiệm được 40% năng lượng cho việc làm mát, một bước tiến đáng kể.

Google DeepMind mong muốn định nghĩa lại khái niệm trí tuệ nhân tạo tổng hợp (AGI).
Tuy nhiên, Tiến sĩ Geoffrey Hinton, một trong những “cha đẻ” của AI hiện đại, cảnh báo: “Cải tiến hiệu suất là cần thiết, nhưng nếu nhu cầu sử dụng AI tiếp tục tăng mạnh như hiện nay, việc tiết kiệm 40% vẫn chưa đủ để giải quyết vấn đề một cách bền vững”.
AI sẽ phát triển đến đâu?
Khi John, một kỹ sư công nghệ, kết thúc ca làm việc, anh đóng laptop lại và nhìn ra ngoài cửa sổ. Thành phố vẫn sáng rực ánh đèn, những con đường vẫn tấp nập xe cộ. Anh tự hỏi: nếu AI thật sự là tương lai của nhân loại, liệu nó có đẩy chúng ta vào một cuộc khủng hoảng năng lượng mới không?
Cuộc cách mạng AI vẫn đang tiếp diễn, và câu hỏi về mức tiêu thụ năng lượng của nó vẫn chưa có lời giải đáp chính xác. Điều chắc chắn là: chúng ta đang bước vào một kỷ nguyên mà công nghệ không chỉ thay đổi cuộc sống, mà còn có thể thay đổi cách thức vận hành của cả thế giới.
AI có thể là cỗ máy thông minh nhất mà con người từng tạo ra, nhưng nếu không kiểm soát được năng lượng mà nó tiêu thụ, liệu nó có thật sự là một giải pháp, hay chỉ là một vấn đề mới?
