Lượng điện năng mà AI sử dụng đã tăng dần trong những năm gần đây, làm dấy lên lo ngại về tác động lên tài nguyên thiên nhiên.
Theo số liệu mới từ Schneider Electric, một công ty quản lý năng lượng của Pháp, AI hiện tiêu thụ khoảng 4,3GW điện, tương đương với mức của một quốc gia nhỏ.
Khi công nghệ AI ngày càng phát triển và trở nên phổ biến, việc tiêu thụ điện của nó cũng tăng lên. Schneider Electric ước tính rằng đến năm 2028, AI sẽ tiêu thụ từ 13,5 đến 20GW, với mức tăng trưởng hàng năm từ 26% đến 36%.
Hiện nay, chỉ có 8% năng lượng của trung tâm dữ liệu được sử dụng cho trí tuệ nhân tạo, trong tổng số 54GW. Tuy nhiên, dự kiến rằng vào năm 2028, mức tiêu thụ điện năng của các trung tâm dữ liệu sẽ tăng lên 90GW, và trí tuệ nhân tạo sẽ chiếm khoảng 15-20% trong số đó.
Công ty đang chia tỷ lệ sử dụng điện năng, với 20% dành cho việc đào tạo AI và 80% cho việc vận hành AI. Báo cáo dự đoán rằng lượng điện năng tiêu thụ để vận hành AI sẽ tăng đáng kể trong những năm tới.
Ngoài ra, báo cáo cũng đề cập đến việc tiêu thụ điện năng cho hệ thống tản nhiệt. Nhiệt độ quá cao có thể gây hỏng phần cứng của máy chủ AI, thậm chí là rủi ro cháy nổ. Để làm mát, ngoài điện năng, các nhà phát triển còn sử dụng một lượng nước lớn để hỗ trợ quá trình tản nhiệt.
Các trung tâm dữ liệu từ lâu đã bị chỉ trích vì lãng phí tài nguyên thiên nhiên, bao gồm cả việc sửa đổi hoặc chuyển hướng dòng chảy của các con sông. Điều này do việc làm mát bằng không khí không đủ hiệu quả và có thể gây hại cho máy chủ.
Công ty khuyên các nhà khai thác trung tâm dữ liệu nên nâng cấp lên hệ thống phân phối 240/415V thay vì 120/208V truyền thống, để đáp ứng yêu cầu năng lượng cao của các tác vụ AI hiện đại.
Việc nâng cấp cơ sở hạ tầng cần được kết hợp với điều chỉnh hướng đi nhằm giảm tiêu thụ năng lượng và làm cho các tác vụ trên đám mây và AI trở nên hiệu quả hơn.