Tại sao sự giảm tốc độ của tiến bộ Trí tuệ Nhân tạo có khả năng xảy ra hơn là sự thống trị thế giới
Có một sự suy giảm nhanh chóng về năng lực tính toán toàn cầu mà không thể giải quyết một cách bền vững theo cách chúng ta đang làm hiện nay. Đơn giản là nói, giữa sự phát triển theo cấp số nhân của mô hình Trí tuệ Nhân tạo (AI) và quá trình chuyển đổi số toàn cầu đang diễn ra, các trung tâm dữ liệu đang cạn kiệt không gian. Tỉ lệ trống trạng của chúng đang đạt đến mức kỷ lục, và giá cả đang tăng lên do nhu cầu, điều này khiến nhiều nhà lãnh đạo công nghệ lo lắng.
Nếu xu hướng này tiếp tục, đến một lúc nào đó, chúng ta sẽ đạt đến một điểm nơi chúng ta không còn thể thực hiện tất cả những điều mà công nghệ lý thuyết cho phép chúng ta làm, bởi vì khả năng xử lý dữ liệu của chúng ta sẽ bị hạn chế.
Có lẽ nỗi lo lớn nhất là tiềm năng biến đổi của Trí tuệ Nhân tạo, mà chúng ta chỉ mới bắt đầu khám phá, sẽ bị kiềm chế bởi các hạn chế vật lý thuần túy. Điều này sẽ ngăn chặn những khám phá mới và sự phát triển của các mô hình học máy (ML) tiên tiến hơn, điều không tốt cho tất cả mọi người, trừ những người báo động về đại họa AI.
Có cách nào để tránh khỏi khủng hoảng năng lực tính toán không? Vì việc giảm đáng kể yêu cầu tính toán của chúng ta thực sự không phải là một lựa chọn, nên lựa chọn duy nhất là tăng cường đáng kể năng lực, điều này dựa vào hai khả năng có sẵn: xây dựng thêm trung tâm dữ liệu và phát triển cơ sở hạ tầng số tốt hơn.
Nếu xu hướng này tiếp tục, đến một lúc nào đó, chúng ta sẽ đạt đến một điểm nơi chúng ta không còn thể thực hiện tất cả những điều mà công nghệ lý thuyết cho phép chúng ta làm, bởi vì khả năng xử lý dữ liệu của chúng ta sẽ bị hạn chế.
Nhưng điều đó dễ nói hơn làm — dưới đây là lý do.
Tại sao thêm trung tâm dữ liệu không phải là câu trả lời
Cho đến nay, nhu cầu ngày càng tăng về năng lực tính toán đã được đáp ứng một phần bằng cách xây dựng thêm trung tâm dữ liệu, với ước tính thận trọng về diện tích mà trung tâm dữ liệu chiếm dụng tăng khoảng ~40% mỗi năm. Đây là một con số mà bạn có thể mong đợi sẽ duy trì khá ổn định, vì vấn đề cung ứng, thách thức về nguồn điện và các trục trặc xây dựng đang hạn chế nghiêm trọng mở rộng năng lực.
Nói cách khác, ngày nay, nhu cầu không thể đơn giản được đáp ứng bằng cách tăng cường xây dựng trung tâm dữ liệu.
Cũng không nên là điều chúng ta nên hướng đến. Mỗi trong những kho lưu trữ kích thước sân bóng này tiêu thụ lượng năng lượng và nước khổng lồ, gây áp lực nặng nề về môi trường, cả ở cấp địa phương và toàn cầu. Một trung tâm dữ liệu đơn có thể tiêu thụ nhiều điện và nước như 50,000 ngôi nhà và lưu lượng carbon của đám mây đã vượt quá ngành công nghiệp hàng không.
Trân trọng những gì đã được làm — trung tâm dữ liệu đã đi xa trong việc giảm thiểu ảnh hưởng môi trường của họ. Điều này chủ yếu là nhờ vào cuộc đua bền vững quyết liệt, đã thúc đẩy sự đổi mới, đặc biệt là liên quan đến làm mát và hiệu suất năng lượng. Ngày nay, bạn sẽ thấy trung tâm dữ liệu trong mỏ dưới đất, dưới biển và sử dụng các cơ hội làm mát tự nhiên khác như dòng nước fjord, tất cả nhằm giảm tiêu thụ năng lượng và nước.
Vấn đề là điều này không có khả năng mở rộng toàn cầu, cũng như việc đun sôi biển cả không phải là một lựa chọn tiến về phía trước khả thi. Việc xây dựng thêm trung tâm dữ liệu — dù hiệu quả đến đâu — sẽ tiếp tục gây ra hỗn loạn cho hệ sinh thái địa phương và làm trở ngại cho các nỗ lực bền vững quốc gia và quốc tế. Tất cả đều diễn ra trong khi vẫn không đáp ứng được nhu cầu về nguồn lực tính toán.
Tuy nhiên, hai vi mạch tốt hơn là một, trừ khi…
Suy nghĩ trong chiếc hộp
… trừ khi một vi mạch đơn đó hoạt động gấp đôi tốc độ. Để tránh khỏi khủng hoảng năng lực, tất cả hy vọng đều đặt vào việc cải thiện cơ sở hạ tầng kỹ thuật số, nói chung, là vi mạch, công tắc, dây và các thành phần khác có thể cải thiện tốc độ và băng thông dữ liệu trong khi tiêu thụ ít năng lượng hơn.
Hãy để tôi nói lại — sự tiến hóa của Trí tuệ Nhân tạo phụ thuộc vào việc tìm cách chuyển nhiều dữ liệu hơn, mà không sử dụng thêm năng lượng.
Điều này có nghĩa là hai điều. Thứ nhất, phát triển vi mạch mạnh mẽ hơn và tập trung vào Trí tuệ Nhân tạo. Thứ hai, nâng cao tốc độ truyền dữ liệu.
1. Thiết kế vi mạch tùy chỉnh cho Trí tuệ Nhân tạo
Cơ sở hạ tầng kỹ thuật số hiện tại không phải là sự lựa chọn tốt nhất cho sự phát triển hiệu quả của các mô hình Học máy. Bộ xử lý trung ương đa nhiệm (CPUs), vẫn là thành phần tính toán chính trong trung tâm dữ liệu, gặp khó khăn khi thực hiện các nhiệm vụ cụ thể của Trí tuệ Nhân tạo do thiếu sự chuyên biệt và hiệu suất tính toán.
Khi nói về Trí tuệ Nhân tạo, bộ xử lý đồ họa (GPUs) hoạt động tốt hơn nhờ vào sức mạnh xử lý, hiệu suất năng lượng cao và khả năng song song. Đó là lý do mọi người đang rộn ràng mua chúng, điều này đã dẫn đến thiếu hụt vi mạch.
Tuy nhiên, GPUs cuối cùng cũng đối mặt với ranh giới tương tự. Chúng không được tối ưu hóa tính toán cho nhiệm vụ Trí tuệ Nhân tạo, dẫn đến lãng phí năng lượng và hiệu suất không tối ưu khi xử lý những yêu cầu ngày càng phức tạp và đòi hỏi nhiều dữ liệu của ứng dụng Trí tuệ Nhân tạo hiện đại.
Đó là lý do tại sao các công ty như IBM đang thiết kế vi mạch được tinh chỉnh để đáp ứng nhu cầu tính toán của Trí tuệ Nhân tạo, hứa hẹn nén ra hiệu suất tối đa trong khi giảm tiêu thụ năng lượng và không gian.
2. Cải thiện khả năng truyền dữ liệu
Không mô hình Trí tuệ Nhân tạo hiện đại nào hoạt động trên một vi mạch đơn. Thay vào đó, để tận dụng tối đa tài nguyên có sẵn, bạn tổ chức nhiều vi mạch thành các cụm. Các cụm này thường tạo thành một phần của các mạng lớn hơn, mỗi mạng được thiết kế cho các nhiệm vụ cụ thể.
Tương ứng, kết nối hoặc hệ thống tạo điều kiện cho việc giao tiếp giữa các vi mạch, các cụm và các mạng trở thành một thành phần quan trọng. Trừ khi nó có thể theo kịp với tốc độ của phần còn lại của hệ thống, nó có nguy cơ trở thành một chướng ngại đối với hiệu suất.
Những thách thức cho các thiết bị truyền dữ liệu tương tự như đối với vi mạch: chúng phải hoạt động ở tốc độ cao, tiêu thụ ít năng lượng và chiếm ít không gian vật lý nhất có thể. Với các kết nối điện truyền thống đang nhanh chóng đạt đến giới hạn của chúng về băng thông và hiệu suất năng lượng, tất cả mọi ánh nhìn đều hướng về máy tính quang học — và đặc biệt là photonics silic.
Khác với các hệ thống điện, hệ thống quang sử dụng ánh sáng để truyền thông tin, mang lại những ưu điểm chính ở những lĩnh vực quan trọng — tín hiệu photonics có thể di chuyển với tốc độ của ánh sáng và mang theo mật độ dữ liệu cao hơn. Ngoài ra, hệ thống quang tiêu thụ ít năng lượng hơn và các thành phần photonics có thể nhỏ hơn nhiều so với bản đối với hệ thống điện của chúng, cho phép thiết kế vi mạch nhỏ gọn hơn.
Những từ khóa quan trọng ở đây là “có thể.”
Những đau đớn của công nghệ hiện đại đang phát triển
Máy tính quang học, mặc dù vô cùng nhanh chóng và hiệu quả về năng lượng, nhưng hiện nay đang đối mặt với thách thức về thu nhỏ kích thước, tương thích và chi phí.
Các công tắc quang và các thành phần khác có thể to lớn và phức tạp hơn so với các đối tác điện tử của chúng, gây ra những thách thức trong việc đạt được cùng mức thu nhỏ. Đến nay, chúng ta vẫn chưa tìm thấy vật liệu có thể hoạt động như một phương tiện quang hiệu quả và có khả năng mở rộng cho các ứng dụng tính toán có mật độ cao.
Việc áp dụng cũng sẽ là một cuộc chiến đấu đòi hỏi nhiều công sức. Trung tâm dữ liệu thường được tối ưu hóa cho xử lý điện tử, chứ không phải quang học, và tích hợp các thành phần quang với kiến trúc điện tử hiện tại đặt ra một thách thức lớn.
Ngoài ra, giống như bất kỳ công nghệ tiên tiến nào khác, máy tính quang học vẫn chưa chứng minh được bản thân mình trên thực tế. Có một thiếu hụt quan trọng về nghiên cứu về độ tin cậy dài hạn của các thành phần quang, đặc biệt là dưới điều kiện áp lực và tải trọng cao thường thấy trong môi trường trung tâm dữ liệu.
Và để đặt mọi thứ vào tầm cao mới — các vật liệu chuyên dụng cần thiết trong các thành phần quang đắt đỏ, khiến cho việc áp dụng rộng rãi có thể trở thành không khả thi về chi phí, đặc biệt là đối với các trung tâm dữ liệu nhỏ hơn hoặc có ràng buộc ngân sách chặt chẽ.
Vậy nên, liệu chúng ta đang di chuyển đủ nhanh để tránh khỏi tình trạng khó khăn?
Có lẽ không. Chắc chắn không phải để dừng việc xây dựng trung tâm dữ liệu trong thời gian ngắn.
Nếu có bất kỳ sự an ủi nào, hãy biết rằng các nhà khoa học và kỹ sư rất nhận thức vấn đề và đang nỗ lực tìm ra những giải pháp không phá hủy hành tinh bằng cách liên tục đẩy ranh giới và đạt được những tiến bộ đáng kể trong tối ưu hóa trung tâm dữ liệu, thiết kế vi mạch và tất cả các khía cạnh của máy tính quang học.
Chính đội của tôi đã phá vỡ ba kỷ lục thế giới về tốc độ ký hiệu cho kết nối trung tâm dữ liệu bằng cách sử dụng phương pháp điều chế cường độ và phát hiện trực tiếp.
Nhưng có những thách thức nghiêm trọng, và quan trọng là phải đối mặt trực tiếp với chúng để các công nghệ hiện đại có thể thực hiện đầy đủ tiềm năng của mình.
Giáo sư Oskars Ozoliņš nhận bằng tiến sĩ khoa học kỹ thuật về truyền thông quang từ Đại học Kỹ thuật Riga (Latvia) vào năm 2013 và nhận bằng habilitation trong lĩnh vực vật lý với chuyên ngành truyền thông quang từ Viện Công nghệ Hoàng gia KTH vào năm 2021. Ông là tác giả của khoảng 270 bài báo quốc tế, đóng góp hội nghị, bài giảng mời/bài giảng/thuyết trình chính, bằng sáng chế và chương sách. Bạn có thể theo dõi ông trên LinkedIn ở đây.
