Cách đây Sáu Tháng, Elon Musk Kêu Gọi Tạm Dừng Phát Triển Trí Tuệ Nhân Tạo. Thay Vì Đó, Phát Triển Đã Tăng Tốc Lên

Sáu tháng trước kể từ tuần này, nhiều nhà nghiên cứu, kỹ sư và doanh nhân Trí tuệ Nhân tạo nổi tiếng đã ký một lá thư mở kêu gọi tạm dừng phát triển các hệ thống Trí tuệ Nhân tạo mạnh mẽ hơn máy tạo ngôn ngữ GPT-4 mới nhất của OpenAI. Nói rằng Trí tuệ Nhân tạo đang phát triển nhanh chóng và không dự đoán được, có thể loại bỏ hàng triệu việc làm, làm cho chúng ta bị tràn ngập thông tin sai lệch và—như loạt tiêu đề hoảng sợ đưa tin—tiêu diệt nhân loại. Ôi chao!
Như bạn có thể đã biết, lá thư không dẫn đến việc tạm dừng phát triển Trí tuệ Nhân tạo, thậm chí là làm chậm lại với một tốc độ đo lường hơn. Thay vào đó, các công ty đã tăng tốc nỗ lực xây dựng Trí tuệ Nhân tạo mạnh mẽ hơn.
Elon Musk, một trong những người ký tên nổi bật nhất, không chờ đợi lâu để phớt lờ lời kêu gọi của mình về sự chậm trễ. Tháng 7, ông thông báo về xAI, một công ty mới ông nói sẽ tìm kiếm vượt qua Trí tuệ Nhân tạo hiện tại và cạnh tranh với OpenAI, Google và Microsoft. Và nhiều nhân viên của Google cũng đã ký tên trên lá thư mở và vẫn ở lại với công ty của họ khi nó chuẩn bị ra mắt mô hình Trí tuệ Nhân tạo mang tên Gemini, với khả năng rộng lớn hơn so với GPT-4 của OpenAI.
MYTOUR đã liên lạc với hơn một tá người ký tên của lá thư để hỏi họ nghĩ sao về tác động của nó và liệu lo ngại của họ về Trí tuệ Nhân tạo có gia tăng hay giảm bớt trong sáu tháng qua. Không ai trong số những người đã trả lời có vẻ đã mong đợi nghiên cứu Trí tuệ Nhân tạo thực sự sẽ chậm lại.
“Tôi chưa bao giờ nghĩ rằng các công ty sẽ tạm dừng tự nguyện,” Max Tegmark, một nhà thiên văn học tại MIT, người điều hành Viện Tương Lai của Viện Học về Tương Lai, tổ chức đứng sau lá thư—một thú nhận mà một số người có thể cho rằng làm cho cả dự án trở nên mơ hồ. Tegmark nói rằng mục tiêu chính của ông không phải là tạm dừng Trí tuệ Nhân tạo mà là hợp pháp hóa cuộc trò chuyện về những nguy hiểm của công nghệ, kể cả việc nó có thể quay ngược lại loài người. Kết quả “vượt xa mong đợi của tôi,” ông nói.
Các phản ứng đối với câu hỏi tiếp theo của tôi cũng cho thấy sự đa dạng lớn về những lo ngại mà các chuyên gia có về Trí tuệ Nhân tạo—và nhiều người ký tên thực sự không ám ảnh bởi rủi ro tồn tại.
Lars Kotthoff, giáo sư bổ nhiệm tại Đại học Wyoming, nói rằng ông sẽ không ký tên vào lá thư giống như vậy ngày nay vì nhiều người kêu gọi tạm dừng vẫn đang làm việc để thúc đẩy Trí tuệ Nhân tạo. “Tôi sẵn lòng ký tên vào những lá thư đi theo hướng tương tự, nhưng không giống như lá thư này,” Kotthoff nói. Ông thêm rằng điều làm ông lo lắng nhất ngày nay là khả năng phản ứng xã hội phản lại sự phát triển của Trí tuệ Nhân tạo, có thể dẫn đến một mùa đông Trí tuệ Nhân tạo khác bằng cách đè bẹp nguồn tài trợ nghiên cứu và làm cho mọi người từ chối các sản phẩm và công cụ AI.
Những người ký tên khác nói với tôi rằng họ sẽ vui lòng ký tên lại, nhưng những lo lắng lớn của họ dường như liên quan đến vấn đề gần hơn, chẳng hạn như thông tin sai lệch và mất việc làm, thay vì kịch bản Terminato.
“Trong thời đại của internet và Trump, tôi có thể dễ dàng nhận thấy làm thế nào Trí tuệ Nhân tạo có thể dẫn đến sự hủy hoại của nền văn minh nhân loại thông qua việc bóp méo thông tin và làm biến đổi tri thức,” nói Richard Kiehl, giáo sư nghiên cứu về vi điện tử tại Đại học Arizona State.
“Chúng ta sẽ có Skynet sẽ xâm nhập vào tất cả các máy chủ quân sự này và phóng tên lửa hạt nhân trên toàn hành tinh à? Tôi thực sự không nghĩ vậy,” nói Stephen Mander, một sinh viên tiến sĩ nghiên cứu về Trí tuệ Nhân tạo tại Đại học Lancaster ở Anh. Tuy nhiên, anh nhìn thấy nguy cơ mất việc làm trên diện rộng đang đe dọa, và gọi đó là một “rủi ro tồn tại” đối với sự ổn định xã hội. Nhưng anh cũng lo lắng rằng lá thư có thể đã thúc đẩy thêm người thử nghiệm với Trí tuệ Nhân tạo và thừa nhận rằng anh không thực hiện theo lời kêu gọi tạm dừng của lá thư. “Sau khi ký tên vào lá thư, tôi đã làm gì trong khoảng một năm trở lại đây? Tôi đã thực hiện nghiên cứu Trí tuệ Nhân tạo,” anh nói.
Mặc dù lá thư không thể kích thích sự tạm dừng rộng rãi, nó đã giúp đẩy ý tưởng rằng Trí tuệ Nhân tạo có thể làm tiêu diệt nhân loại trở thành một chủ đề chính của cuộc trò chuyện. Nó đã được theo sau bởi một tuyên bố công khai được ký bởi các nhà lãnh đạo của OpenAI và bộ môn Trí tuệ Nhân tạo DeepMind của Google, so sánh rủi ro tồn tại do Trí tuệ Nhân tạo gây ra với rủi ro của vũ khí hạt nhân và đại dịch. Tháng sau đó, chính phủ Anh sẽ tổ chức một hội nghị quốc tế về “an toàn của Trí tuệ Nhân tạo”, nơi các lãnh đạo từ nhiều quốc gia sẽ thảo luận về những nguy hại mà Trí tuệ Nhân tạo có thể gây ra, bao gồm cả nguy cơ tồn tại.
Có lẽ những người tin vào sự đen tối của Trí tuệ Nhân tạo đã chiếm đa số trong câu chuyện với lá thư tạm dừng, nhưng sự bất an xung quanh sự tiến triển nhanh chóng gần đây của Trí tuệ Nhân tạo là đủ thực tế và dễ hiểu. Một vài tuần trước khi lá thư được viết, OpenAI đã phát hành GPT-4, một mô hình ngôn ngữ lớn mang lại cho ChatGPT sức mạnh mới để trả lời câu hỏi và làm cho các nhà nghiên cứu Trí tuệ Nhân tạo bất ngờ. Khi tiềm năng của GPT-4 và các mô hình ngôn ngữ khác trở nên rõ ràng hơn, các cuộc khảo sát cho thấy công chúng đang trở nên lo lắng hơn là háo hức về công nghệ Trí tuệ Nhân tạo. Cách rõ ràng nhất mà những công cụ này có thể bị lạm dụng đang thúc đẩy các cơ quan qu regulag tại khắp nơi trên thế giới đưa ra các biện pháp.
Yêu cầu của lá thư về việc tạm dừng phát triển Trí tuệ Nhân tạo trong vòng sáu tháng có thể tạo ra ấn tượng rằng những người ký tên mong đợi điều xấu xảy ra sớm. Nhưng với nhiều người, chủ đề quan trọng có vẻ là sự không chắc chắn—về khả năng thực sự của Trí tuệ Nhân tạo, về sự thay đổi nhanh chóng của mọi thứ, và về cách công nghệ đang được phát triển.
“Nhiều người nghi ngờ về Trí tuệ Nhân tạo muốn nghe một kịch bản tận diệt cụ thể, nhưng với tôi, việc khó có thể tưởng tượng ra các kịch bản chi tiết là một phần quan trọng—nó cho thấy việc dự đoán tương lai của Trí tuệ Nhân tạo và cách nó sẽ ảnh hưởng đến một thế giới phức tạp là khó khăn đối với những chuyên gia hàng đầu về Trí tuệ Nhân tạo,” nói Scott Niekum, một giáo sư tại Đại học Massachusetts Amherst nghiên cứu về rủi ro Trí tuệ Nhân tạo và đã ký tên vào lá thư. “Và khi bạn kết hợp khó khăn trong việc dự đoán đó với sự tiến triển chậm rãi trong an toàn, khả năng giải thích và quy định, tôi nghĩ rằng điều đó nên đánh thức một số chuông cảnh báo.”
Sự không chắc chắn hiếm khi là bằng chứng cho việc nhân loại đang gặp nguy hiểm. Nhưng thực tế là nhiều người làm việc trong lĩnh vực Trí tuệ Nhân tạo vẫn cảm thấy không yên bình có thể là đủ lý do cho các công ty phát triển Trí tuệ Nhân tạo tiếp cận một cách có suy nghĩ—hoặc chậm hơn.
“Nhiều người có thể sẽ ở trong tình huống tốt để tận dụng sự tiến triển hơn nữa nhưng giờ đây thay vào đó muốn thấy một sự tạm dừng,” nói Vincent Conitzer, một giáo sư nghiên cứu về Trí tuệ Nhân tạo tại CMU, người đã ký tên vào lá thư. “Nếu không có điều gì khác, đó nên là một dấu hiệu rằng có điều gì đó rất không bình thường đang diễn ra.”
