Trong Cảnh Báo Bất Ngờ, Các Chuyên Gia Công Nghệ Kêu Gọi Tạm Dừng ChatGPT

Một thư mở được ký tên bởi hàng trăm chuyên gia trí tuệ nhân tạo nổi tiếng, doanh nhân công nghệ và nhà khoa học kêu gọi tạm dừng việc phát triển và kiểm thử các công nghệ trí tuệ nhân tạo mạnh mẽ hơn mô hình ngôn ngữ GPT-4 của OpenAI để có thể nghiên cứu đúng mức nguy cơ nó có thể gây ra.
Thư cảnh báo rằng các mô hình ngôn ngữ như GPT-4 đã có khả năng cạnh tranh với con người ở một loạt các nhiệm vụ ngày càng nhiều và có thể được sử dụng để tự động hóa công việc và lan truyền thông tin sai lệch. Thư cũng đề cập đến khả năng xa xôi về các hệ thống AI có thể thay thế con người và làm mới nền văn minh.
“Chúng tôi kêu gọi tất cả các phòng thí nghiệm trí tuệ nhân tạo ngừng ngay lập tức ít nhất 6 tháng việc đào tạo các hệ thống AI mạnh mẽ hơn GPT-4 (bao gồm cả GPT-5 đang được đào tạo),” tuyên bố trong thư, với các chữ ký bao gồm Yoshua Bengio, giáo sư tại Đại học Montreal được coi là một trong những người tiên phong của trí tuệ nhân tạo hiện đại, nhà sử học Yuval Noah Harari, đồng sáng lập Skype Jaan Tallinn và CEO Twitter Elon Musk.
Thư này, được viết bởi Viện Tương Lai của Cuộc sống, một tổ chức tập trung vào các rủi ro công nghệ đối với nhân loại, thêm vào đó rằng sự tạm dừng này nên là “công khai và có thể xác minh được,” và nên liên quan đến tất cả những người đang làm việc trên các mô hình trí tuệ nhân tạo tiên tiến như GPT-4. Nó không đề xuất cách nào để kiểm tra việc tạm dừng phát triển, nhưng thêm rằng “nếu việc tạm dừng không thể được thực hiện nhanh chóng, chính phủ nên can thiệp và thiết lập lệnh tạm ngừng,” điều mà có vẻ không có khả năng xảy ra trong vòng sáu tháng.
Microsoft và Google không phản hồi lại yêu cầu bình luận về thư. Những người ký tên có vẻ bao gồm những người từ nhiều công ty công nghệ đang xây dựng các mô hình ngôn ngữ tiên tiến, bao gồm cả Microsoft và Google. Hannah Wong, người phát ngôn của OpenAI, nói rằng công ty đã dành hơn sáu tháng làm việc về an toàn và điều chỉnh của GPT-4 sau khi đào tạo mô hình. Cô thêm rằng OpenAI hiện không đào tạo GPT-5.
Thư được viết trong bối cảnh các hệ thống trí tuệ nhân tạo đang có những bước tiến ngày càng táo bạo và ấn tượng. GPT-4 chỉ được công bố hai tuần trước, nhưng khả năng của nó đã làm nổi lên nhiều sự hứng thú đáng kể và một lượng đáng kể lo ngại. Mô hình ngôn ngữ này, có sẵn thông qua ChatGPT, chatbot phổ biến của OpenAI, đạt điểm cao trong nhiều bài kiểm tra học thuật và có thể giải đúng các câu hỏi khó khăn được cho là đòi hỏi trí tuệ cao hơn so với những gì các hệ thống trí tuệ nhân tạo đã thể hiện trước đó. Tuy nhiên, GPT-4 cũng mắc phải nhiều lỗi logic trắc trivial. Và, giống như những phiên bản trước đó, đôi khi nó tạo ra thông tin không chính xác, trải qua các định kiến xã hội và có thể bị kích động để nói những điều gian ác hoặc có thể gây hại.
Một phần của lo ngại được thể hiện bởi những người ký tên trong thư là rằng OpenAI, Microsoft và Google đã bắt đầu cuộc đua với mục tiêu lợi nhuận để phát triển và tung ra các mô hình trí tuệ nhân tạo mới càng nhanh càng tốt. Ở tốc độ như vậy, thư đưa ra, các tiến triển diễn ra nhanh hơn là xã hội và cơ quan quy định có thể chấp nhận được.
Tốc độ thay đổi - và quy mô đầu tư - rất đáng kể. Microsoft đã đầu tư 10 tỷ đô la vào OpenAI và đang sử dụng trí tuệ nhân tạo của mình trong công cụ tìm kiếm Bing cũng như các ứng dụng khác. Mặc dù Google đã phát triển một số trí tuệ nhân tạo cần thiết để xây dựng GPT-4 và trước đây đã tạo ra các mô hình ngôn ngữ mạnh mẽ của riêng mình, nhưng cho đến năm nay, công ty này đã chọn không phát hành chúng do những lo ngại về đạo đức.
Nhưng sự hứng thú xung quanh ChatGPT và các động thái của Microsoft trong tìm kiếm có vẻ đã thúc đẩy Google vào việc vội vã kế hoạch của mình. Công ty gần đây đã giới thiệu Bard, một đối thủ của ChatGPT, và nó đã tạo ra một mô hình ngôn ngữ có tên PaLM, giống với các sản phẩm của OpenAI, được cung cấp thông qua một giao diện lập trình ứng dụng (API). “Cảm giác như chúng ta đang di chuyển quá nhanh,” nói Peter Stone, một giáo sư tại Đại học Texas tại Austin, và chủ tịch của Nghiên cứu AI Trăm Năm, một báo cáo nhằm hiểu rõ về các ảnh hưởng dài hạn của trí tuệ nhân tạo.
Stone, một người ký tên của thư, nói rằng ông không đồng ý với mọi thứ trong đó và không quan tâm cá nhân đến các nguy cơ tồn tại. Nhưng ông nói rằng tiến triển diễn ra rất nhanh chóng đến nỗi cộng đồng trí tuệ nhân tạo và công dân chưa kịp khám phá những lợi ích và lạm dụng có thể của ChatGPT trước khi nó được nâng cấp với GPT-4. “Tôi nghĩ đây là đáng giá để có một chút kinh nghiệm về cách chúng có thể được sử dụng và lạm dụng trước khi đua nhau để xây dựng mô hình tiếp theo,” ông nói. “Điều này không nên là cuộc đua để xây dựng mô hình tiếp theo và đưa ra trước người khác.”
Cho đến nay, cuộc đua đã diễn ra nhanh chóng. OpenAI công bố mô hình ngôn ngữ lớn đầu tiên của mình, GPT-2 vào tháng 2 năm 2019. Người kế nhiệm của nó, GPT-3, được giới thiệu vào tháng 6 năm 2020. ChatGPT, giới thiệu các cải tiến trên cơ sở của GPT-3, được phát hành vào tháng 11 năm 2022.
Một số người ký tên của thư là một phần của bùng nổ trí tuệ nhân tạo hiện tại - phản ánh những lo ngại trong ngành công nghiệp rằng công nghệ đang di chuyển ở một tốc độ có thể gây nguy hiểm. “Những người tạo ra chúng đã tự nói rằng chúng có thể là một mối đe dọa tồn tại đối với xã hội và thậm chí là loài người, mà không có kế hoạch để giảm thiểu hoàn toàn những rủi ro này,” nói Emad Mostaque, người sáng lập và CEO của Stability AI, một công ty xây dựng công cụ trí tuệ nhân tạo thế hệ mới và là người ký tên của thư. “Đã đến lúc đặt ưu tiên thương mại sang một bên và tạm dừng vì lợi ích của mọi người để đánh giá thay vì đua nhau vào một tương lai không chắc chắn,” ông thêm.
Bước nhảy gần đây trong khả năng của trí tuệ nhân tạo trùng với cảm giác rằng có thể cần thêm rào cản xung quanh việc sử dụng nó. Liên minh châu Âu hiện đang xem xét pháp luật có thể giới hạn việc sử dụng trí tuệ nhân tạo tùy thuộc vào các rủi ro liên quan. Nhà Trắng đã đề xuất một Dự thảo Quyền lợi AI mà nói rõ về các biện pháp bảo vệ mà công dân nên mong đợi từ phân biệt đối xử của thuật toán, việc vi phạm quyền riêng tư dữ liệu và các vấn đề khác liên quan đến trí tuệ nhân tạo. Nhưng những quy định này bắt đầu hình thành trước khi sự bùng nổ gần đây của trí tuệ nhân tạo thế hệ mới thậm chí bắt đầu.
“Chúng ta cần nhấn nút tạm dừng và xem xét các rủi ro của việc triển khai nhanh chóng các mô hình trí tuệ nhân tạo sáng tạo,” nói Marc Rotenberg, người sáng lập và giám đốc Trung tâm Chính sách Trí tuệ nhân tạo và Kỹ thuật số, người cũng là một trong những người ký tên của thư. Tổ chức của ông dự định sẽ nộp đơn khiếu nại tuần này đến Ủy ban Thương mại Liên bang Mỹ yêu cầu điều tra OpenAI và ChatGPT và cấm nâng cấp công nghệ cho đến khi “các biện pháp bảo vệ phù hợp” được đặt ra, theo trang web của tổ chức. Rotenberg nói rằng bức thư công khai là “đúng thời điểm và quan trọng” và ông hy vọng nó nhận được “sự hỗ trợ rộng rãi.”
Khi ChatGPT được phát hành cuối năm ngoái, khả năng của nó nhanh chóng gây ra cuộc thảo luận về những tác động đối với giáo dục và việc làm. Khả năng cải thiện đáng kể của GPT-4 đã gây ra nhiều lo ngại hơn. Musk, người đã cung cấp nguồn lực tài chính sớm cho OpenAI, gần đây đã cảnh báo trên Twitter về rủi ro của việc các công ty công nghệ lớn đẩy mạnh tiến bộ trong lĩnh vực trí tuệ nhân tạo.
Một kỹ sư tại một công ty công nghệ lớn ký tên trong thư và không muốn tiết lộ tên vì ông không được ủy quyền nói chuyện với truyền thông, nói rằng anh đã sử dụng GPT-4 kể từ khi nó được phát hành. Kỹ sư xem xét công nghệ này là một bước tiến lớn nhưng cũng là một nguy cơ lớn. “Tôi không biết liệu sáu tháng có đủ hay không, nhưng chúng ta cần thời gian đó để suy nghĩ về những chính sách chúng ta cần phải thiết lập,” ông nói.
Những người làm việc trong lĩnh vực công nghệ cũng bày tỏ sự nghi ngờ về việc thư tập trung vào rủi ro lâu dài, vì các hệ thống hiện có như ChatGPT đã tạo ra những đe dọa. “Tôi thấy các phát triển gần đây rất hứng thú,” nói Ken Holstein, giáo sư trợ giảng về tương tác người-máy tại Đại học Carnegie Mellon, người yêu cầu tên mình bị loại bỏ khỏi thư một ngày sau khi ký tên khi cuộc tranh luận nảy lên giữa các nhà khoa học về yêu cầu tốt nhất để đưa ra vào lúc này.
“Tôi lo lắng rằng chúng ta đang ở trong giai đoạn ‘di chuyển nhanh và phá vỡ mọi thứ,’” nói Holstein, thêm rằng tốc độ có thể quá nhanh đối với các cơ quan quản lý để duy trì một cách có ý nghĩa. “Tôi muốn nghĩ rằng chúng ta, vào năm 2023, tổng thể, biết rõ hơn về điều này.”
Cập nhật 29/03/2023, 10:40 pm EST: Câu chuyện này đã được cập nhật để phản ánh phiên bản cuối cùng của bức thư công khai, và Ken Holstein đã yêu cầu được loại bỏ làm người ký tên. Một bản nháp trước của bức thư chứa một sai sót. Bình luận từ OpenAI cũng đã được thêm vào.
