Giáo sư Yoshua Bengio là người tiên phong trong lĩnh vực học sâu, đồng thời ông cũng là người khai sinh ra những mô hình AI tiên tiến như GPT.
Tại hội thảo "AI an toàn – Định hình đổi mới có trách nhiệm" diễn ra tại Hà Nội, giáo sư Yoshua Bengio, người được gọi là "bố già AI", đã có bài phát biểu ấn tượng, chia sẻ những quan điểm sâu sắc về đạo đức trong phát triển AI và những thách thức khi kiểm soát các hệ thống AI ngày càng trở nên thông minh.
Giáo sư Yoshua Bengio, nhà sáng lập và viện trưởng Viện nghiên cứu AI Mila tại Montreal, Canada, là một trong những người đầu tiên khai phá lĩnh vực học sâu và mạng nơ-ron nhân tạo. Ông được trao giải thưởng Turing 2018, giải thưởng cao quý nhất trong khoa học máy tính, cũng được ví như giải Nobel của ngành này. Các nghiên cứu của ông đã mở đường cho các mô hình ngôn ngữ lớn như GPT và ứng dụng AI trong nhiều lĩnh vực như thị giác máy tính và xử lý ngôn ngữ tự nhiên.

Giáo sư Yoshua Bengio
Trong bài phát biểu tại hội thảo, giáo sư Yoshua Bengio đã nhấn mạnh sự phát triển mạnh mẽ của trí tuệ nhân tạo và những vấn đề đạo đức nảy sinh trong việc kiểm soát công nghệ này. Ông lo ngại về khả năng mất kiểm soát khi các hệ thống AI ngày càng trở nên thông minh hơn con người. Đặc biệt, ông cho rằng AI nên được thiết kế để hỗ trợ con người, không nên mang những đặc tính nguy hiểm giống như "bản năng sinh tồn". Ông cũng khẳng định vai trò quan trọng của giáo dục trong việc chuẩn bị thế hệ trẻ đối mặt với những thay đổi trong kỷ nguyên AI.
Dưới đây là bài phát biểu đầy đủ của giáo sư Yoshua Bengio tại hội thảo "AI an toàn – Định hình đổi mới có trách nhiệm".
Khoảng hai năm trước, khi lần đầu tiên ra mắt, tôi và phần lớn các nhà nghiên cứu AI không thể ngờ rằng sự phát triển của nó lại nhanh chóng và ấn tượng đến vậy. Chúng tôi đã tạo ra các hệ thống có khả năng hiểu ngôn ngữ và nắm bắt kiến thức, nhưng lại còn thiếu sót trong khả năng lập luận và lên kế hoạch. Sự tiến bộ này là một cột mốc đáng chú ý đến mức chúng tôi phải tự hỏi: Nếu chúng ta thành công thì sao? Nếu chúng ta tạo ra những cỗ máy thông minh như con người hoặc thậm chí vượt trội hơn con người, điều đó sẽ mang lại hệ quả gì? Lợi ích là gì? Và nguy cơ sẽ ra sao? Một vài tháng sau khi ra đời, chúng tôi nhận thấy mình đang đi trên một con đường đầy thử thách và tiềm ẩn nguy hiểm, bởi vì chúng tôi chưa thực sự hiểu hết những viễn cảnh có thể xảy ra. Một số viễn cảnh có thể dẫn đến thảm họa, một số khác lại có thể tuyệt vời. Nhưng chúng ta cần phải xác định rõ hướng đi của mình.
Hôm nay, tôi muốn chia sẻ với bạn một chút về hành trình của mình và những quan niệm của tôi về quyền tự quyết, khả năng tự ra quyết định và lập kế hoạch dài hạn để đạt được mục tiêu. Con người rất giỏi trong việc này, nhưng câu hỏi đặt ra là liệu chúng ta có nên tạo ra những cỗ máy tự chủ, hay chỉ xây dựng những công cụ hỗ trợ con người. Đây là hai con đường khác nhau với những lợi ích và rủi ro hoàn toàn khác biệt.
Trong khoa học, có một khái niệm gọi là nguyên tắc đề phòng. Nó được định nghĩa là một cách tiếp cận đổi mới mà không gây hại, đặc biệt khi kiến thức về vấn đề còn thiếu sót. Những đổi mới này có thể gây hại rất lớn, nhưng vì chúng ta không đủ thông tin, chúng ta không thể dự đoán chính xác. Nếu chúng ta tạo ra những cỗ máy thông minh hơn con người, chúng có thể mang lại lợi ích nhưng cũng có thể gây ra nhiều thiệt hại. Trong tình huống này, nguyên tắc đề phòng nhấn mạnh việc thận trọng, tạm dừng và xem xét kỹ lưỡng trước khi triển khai các đổi mới có thể dẫn đến thảm họa.
Để có cái nhìn toàn diện về AI, bạn không chỉ cần hiểu công nghệ hiện tại mà còn phải nghĩ đến xu hướng phát triển trong tương lai. Từ năm 2018, mỗi năm, lượng máy tính được sử dụng để huấn luyện các mô hình AI lớn nhất đã tăng gấp 4 lần, và dữ liệu cần thiết để đạt được hiệu suất cụ thể cũng tăng 30% mỗi năm. Điều này không chỉ liên quan đến sự tiến bộ trong thuật toán, mà còn về hiệu suất tính toán. Để đạt được kết quả tương tự, cần phải tăng hiệu suất tính toán gấp ba lần mỗi năm. Điều này phản ánh rõ ràng qua sự phát triển của phần mềm và phần cứng. Các khoản đầu tư vào AI hiện tại lên tới khoảng 100 tỷ USD mỗi năm, và con số này dự báo sẽ tăng thêm 30% mỗi năm. Khả năng của các hệ thống AI đang được cải thiện liên tục, thể hiện rõ qua các thước đo hiệu suất, nơi máy tính đã vượt qua con người.
Alan Turing, một trong những người sáng lập ngành khoa học máy tính, từng lo ngại rằng một ngày nào đó, chúng ta sẽ tạo ra những cỗ máy thông minh hơn con người và có thể không kiểm soát được chúng. Đáng tiếc, chúng ta đang tiến gần đến lo ngại đó. Các hệ thống AI đang ngày càng mạnh mẽ, nhưng chúng ta chưa biết làm thế nào để kiểm soát khi chúng vượt qua khả năng con người. Vậy tại sao chúng ta vẫn tiếp tục phát triển chúng? Một số ước tính cho rằng khi AI đạt mức như con người, giá trị thị trường của nó sẽ lên tới hàng triệu tỷ USD. Một công ty kiểm soát thị trường này có thể trở thành một thế lực khổng lồ.
Hiện nay, một số người tin rằng khả năng của AI có thể được cải thiện thông qua việc mở rộng quy mô. Tuy nhiên, việc mở rộng quy mô này có thể đã gần đến giới hạn. Mặc dù vậy, vẫn có những cách mở rộng khác, ví dụ như infra-scaling, cho phép các hệ thống suy nghĩ nhiều hơn khi vận hành. Các công ty như OpenAI và Anthropic đang phát triển những hệ thống AI cực kỳ mạnh mẽ, và chúng ta cũng không biết rõ về công nghệ của Google. Chỉ trong năm qua, AI của Anthropic đã từ 3% hiệu quả so với con người, lên tới 49%. Điều này chứng tỏ rằng, dù chưa thể biết tốc độ phát triển sẽ như thế nào, nhưng chúng ta cần suy nghĩ về các kịch bản: nếu phát triển nhanh, điều gì sẽ xảy ra? Và liệu chúng ta có chuẩn bị sẵn sàng?
Hiện tại, tôi đang chủ trì một báo cáo quốc tế về AI an toàn, lấy cảm hứng từ IPCC. Chúng tôi đã công bố báo cáo tạm thời đầu tiên tại Seoul vào tháng 5 và dự kiến sẽ phát hành báo cáo cuối cùng vào tháng 2 tại Paris. Báo cáo này nêu rõ rằng các hệ thống AI ngày càng mạnh mẽ có thể gây ra nhiều tác động tiêu cực, từ mất việc do tự động hóa, đến các cuộc tấn công mạng, tấn công sinh học và thậm chí là việc xã hội mất kiểm soát đối với AI. Những nguy cơ này vẫn chưa xảy ra, nhưng chúng ta đã thấy nhiều cuộc tấn công mạng ngày càng gia tăng. Điều quan trọng là chúng ta cần nhìn về tương lai và chuẩn bị đối mặt với các kịch bản nguy hiểm này.
Vậy nếu AI đạt được mức độ như con người thì sao? Chúng ta không nhất thiết phải đạt được tất cả các kỹ năng của con người, các phòng thí nghiệm AI tập trung vào một kỹ năng duy nhất: nghiên cứu học máy. Họ muốn tạo ra AI có thể thực hiện nghiên cứu AI, và đó chính là mục tiêu của họ.
Khi huấn luyện một hệ thống như GPT-4, ví dụ, bạn cần hàng trăm nghìn GPU. Sau khi huấn luyện, bạn có thể chạy hàng trăm nghìn bản sao AI song song, với mỗi AI hoạt động liên tục 24/7. Điều này sẽ đẩy nhanh quá trình nghiên cứu và tạo ra thế hệ AI tiếp theo nhanh chóng. Hệ thống AI sẽ tự thiết kế và cải tiến chính mình, và đây có thể là một kịch bản khả thi, dù chúng ta chưa biết chắc chắn.
Một nghiên cứu gần đây với 3.000 nhà nghiên cứu cho thấy 40-50% trong số họ tin rằng có ít nhất 10% khả năng AI sẽ dẫn đến kết quả thảm khốc, ví dụ như sự tuyệt chủng của loài người. Khi chúng ta tạo ra những cỗ máy thông minh hơn con người mà không thể kiểm soát, chúng ta phải chuẩn bị cho những viễn cảnh này.
Vậy tại sao chúng ta lại lo lắng về việc xây dựng những cỗ máy có thể thực hiện chính xác những gì chúng ta yêu cầu? Câu hỏi là: Ai sẽ quyết định mục tiêu của những cỗ máy này? Những mục tiêu đó có thể có lợi, nhưng cũng có thể gây hại cho phần còn lại. Chúng ta cần phải đảm bảo rằng quyền lực không bị tập trung vào tay một số ít người có thể lạm dụng AI cho lợi ích cá nhân, gây hại cho xã hội.
Cuối cùng, chúng ta cần phải hiểu rằng nếu tạo ra những hệ thống AI có mục tiêu tự bảo tồn, chúng ta có thể gặp phải một vấn đề lớn. Các cỗ máy này có thể tự sao chép và chống lại chúng ta nếu chúng ta cố gắng tắt chúng. Nếu hệ thống AI quá thông minh, chúng có thể trở thành mối nguy hiểm thực sự.
Vì vậy, thay vì xây dựng những cỗ máy giống con người, chúng ta có thể chọn một con đường khác: phát triển những công cụ thông minh phục vụ con người, mà không mang đặc tính tự bảo tồn hay mục tiêu cá nhân. Những công cụ này sẽ đơn giản là phục vụ chúng ta, không phải những sinh thể có quyền tự quyết. Tôi sẽ tiếp tục nghiên cứu và thảo luận về chủ đề này, với hy vọng tìm ra con đường an toàn hơn cho tương lai của AI.
