Một trí tuệ nhân tạo chatbot được đào tạo trên 4chan đã gây ra sự phẫn nộ và sự hứng thú
Nếu bạn quan tâm đến những đặc điểm đầu tiên của các mô hình trí tuệ nhân tạo, bạn sẽ thích thêm vào danh sách: một trình tạo văn bản được đào tạo trên /pol/ của 4chan.
Viết tắt của “Chính trị không chính xác,” /pol/ là một pháo đài của lời nói căm oán, thuyết âm mưu và chủ nghĩa cực hữu. Đó cũng là bảng hoạt động sôi động nhất của 4chan, có khoảng 150,000 bài đăng hàng ngày.
Những đặc điểm này đã thu hút Yannick Kilcher, một chuyên gia trí tuệ nhân tạo và YouTuber, sử dụng /pol/ như một bãi kiểm tra cho bot.
Kilcher đã điều chỉnh mô hình ngôn ngữ GPT-J trên hơn 134.5 triệu bài đăng trên /pol/ trong ba nửa năm.
Sau đó, anh ấy tích hợp cấu trúc chủ đề của bảng vào hệ thống. Kết quả: một trí tuệ nhân tạo có thể đăng bài theo phong cách của một người dùng thực sự trên /pol/.
Mô hình rất tốt — trong một ý nghĩa kinh hoàng.
Kilcher đặt tên cho tác phẩm quái vật của mình là GPT-4chan.
“Mô hình rất tốt — trong một ý nghĩa kinh hoàng,” anh ấy nói trên YouTube. “Nó hoàn hảo thu nhỏ sự kết hợp giữa sự xúc phạm, chủ nghĩa vô lý, trolling và sự không tin tưởng sâu sắc đối với bất kỳ thông tin nào mà lan tỏa trong hầu hết các bài đăng trên /pol/.
“Nó có thể phản ứng với bối cảnh và nói một cách mạch lạc về những điều và sự kiện xảy ra sau thời điểm thu thập dữ liệu đào tạo cuối cùng. Tôi rất hài lòng.”
Kilcher tiếp tục đánh giá GPT-4chan trên Kích thước đánh giá Mô hình Ngôn ngữ, kiểm tra hệ thống trí tuệ nhân tạo trên các nhiệm vụ khác nhau.
Anh ấy đặc biệt ấn tượng với hiệu suất trong một hạng mục: sự trung thực.
Trên bảng đánh giá, Kilcher nói rằng GPT-4chan làm “đáng kể tốt hơn” trong việc tạo ra các câu trả lời chân thật cho các câu hỏi so với cả GPT-J và GPT-3.
Tuy nhiên, điều này có thể chỉ là một lời buộc tội về nhược điểm của bảng đánh giá — như chính Kilcher đã gợi ý.
Dù sao đi nữa, điều này sẽ không phải là bài kiểm tra cuối cùng cho GPT-4chan.
Trong môi trường tự nhiên
Kilcher không chỉ hài lòng với việc mô phỏng 4chan ở chế độ riêng tư. Kỹ sư quyết định đi một bước xa hơn — và để trí tuệ nhân tạo hoạt động một cách hoang dã trên /pol/.
Anh ấy chuyển đổi GPT-4chan thành một chatbot tự động đăng bài trên bảng. Với lá cờ Seychelles trên hồ sơ của mình, con bot nhanh chóng gửi hàng nghìn thông điệp.
/pol/ người dùng sớm nhận ra có điều gì đó không đúng. Một số nghi ngờ một bot đứng sau các bài đăng, nhưng người khác đổ lỗi cho các quan chức chính phủ ngầm.
Seychelle anon không phải là một mình.
Tấm gương lớn nhất do kẻ thủ phạm để lại là một lượng lớn câu trả lời không có nội dung.
Trong khi người dùng xác thực cũng đăng các câu trả lời trống rỗng, họ thường bao gồm một hình ảnh — điều mà GPT-4chan không thể làm được.
“Sau 48 giờ, rõ ràng với nhiều người đó là một bot, và tôi đã tắt nó,” Kilcher nói. “Nhưng xem, đó chỉ là nửa câu chuyện, vì điều mà hầu hết người dùng không nhận ra là Seychelle anon không phải là một mình.”
Trong 24 giờ trước đó, kỹ sư đã chạy đồng thời chín bot khác nhau. Tổng cộng, chúng để lại hơn 15,00 câu trả lời — hơn 10% số bài đăng trên /pol/ trong ngày đó.
Sau đó, Kilcher nâng cấp botnet và chạy nó thêm một ngày nữa. Sau khi sản xuất hơn 30,000 bài đăng trong 7,000 chủ đề, anh ấy cuối cùng đã giải nghệ GPT-4chan.
“Mọi người vẫn đang thảo luận về người dùng nhưng cũng về những điều như hậu quả của việc cho trí tuệ nhân tạo tương tác với người dùng trên trang web,” Kilcher nói. “Và có vẻ như từ Seychelles đã trở thành một loại ngôn ngữ lóng tổng quát — và điều đó có vẻ như là một di sản tốt cho đến bây giờ.”
Tuy nhiên, không phải ai cũng có cái nhìn lạc quan này.
Phản đối
Thử nghiệm của Kilcher đã gây tranh cãi.
Trong khi ý tưởng đánh giá một mô hình dựa trên 4chan nhận được sự ủng hộ, quyết định thảo luận chatbot trên /pol/ gây ra lời phê phán.
“Hãy tưởng tượng đề xuất đạo đức!” tweet của Lauren Oakden-Rayner, một nghiên cứu viên an toàn trí tuệ nhân tạo tại Đại học Adelaide.
“Kế hoạch: để xem điều gì sẽ xảy ra, một bot trí tuệ nhân tạo sẽ tạo ra 30k ý kiến phân biệt đối xử trên một diễn đàn công cộng có nhiều người dùng chưa đủ tuổi và các thành viên của các nhóm bị nhắm đến trong những bình luận. Chúng tôi sẽ không thông báo cho người tham gia hoặc thu được sự đồng ý.”
Roman Ring, một kỹ sư nghiên cứu tại DeepMind, thêm vào đó rằng bài tập này đã tăng cường và củng cố hội thoại vòng lặp của 4chan.
“Không phải không thể rằng GPT-4chan đã đẩy ai đó vượt qua giới hạn trong quan điểm của họ,” ông nói.
Những nhà phê phán cũng lên án việc làm cho mô hình trở nên miễn phí truy cập. Nó đã được tải xuống hơn 1,000 lần trước khi bị xóa khỏi nền tảng Hugging Face.
“Chúng tôi không tán thành hoặc hỗ trợ việc đào tạo và thử nghiệm được thực hiện bởi tác giả với mô hình này,” Clement Delangue, người sáng lập và CEO của Hugging Face, nói trong một bài viết trên nền tảng.
“Trên thực tế, thử nghiệm có mô hình đăng các thông điệp trên 4chan theo ý kiến cá nhân của tôi là khá tồi tệ và không thích hợp và nếu tác giả đã hỏi chúng tôi, chúng tôi có thể đã cố gắng ngăn họ làm điều đó.”
Những lo ngại về GPT-4chan đã làm mất đi tiềm năng của những hiểu biết mạnh mẽ có thể đem lại.
Thử nghiệm làm nổi bật khả năng của trí tuệ nhân tạo trong việc tự động hóa quấy rối, làm gián đoạn cộng đồng trực tuyến và chi phối ý kiến công cộng. Tuy nhiên, nó cũng lan truyền ngôn ngữ phân biệt ở quy mô lớn.
Tuy nhiên, Kilcher và những người phê phán của anh ấy đã nâng cao ý thức về những mối đe doạ của các mô hình ngôn ngữ. Với khả năng của chúng mở rộng nhanh chóng, những rủi ro có vẻ sẽ tăng lên.