
Elon Musk đã tạo sóng người hâm mộ tuần trước khi ông nói với người gây sốc thuộc phe phải vừa bị sa thải, Tucker Carlson, rằng ông dự định xây dựng “TruthGPT,” một đối thủ của ChatGPT của OpenAI. Musk cho biết bot phổ biến này hiển thị sự thiên lệch 'woke' và phiên bản của ông sẽ là một 'trí tuệ nhân loại tối đa' — chỉ ngụ ý quan điểm chính trị của chính ông mới phản ánh hiện thực.
Musk không phải là người duy nhất lo lắng về độ chệch chính trị trong mô hình ngôn ngữ, nhưng những người khác đang cố gắng sử dụng trí tuệ nhân tạo để kết nối các khe hở chính trị thay vì đẩy các quan điểm cụ thể.
David Rozado, một nhà khoa học dữ liệu đến từ New Zealand, đã là một trong những người đầu tiên chú ý đến vấn đề chệch lệch chính trị trong ChatGPT. Vài tuần trước, sau khi ghi chép những câu trả lời có xu hướng tự do từ bot về các vấn đề bao gồm thuế, quyền sở hữu súng và thị trường tự do, anh ấy đã tạo ra một mô hình AI có tên là RightWingGPT thể hiện quan điểm bảo thủ hơn. Nó ủng hộ quyền sở hữu súng và không thích thuế.
Rozado đã sử dụng một mô hình ngôn ngữ có tên Davinci GPT-3, tương tự nhưng ít mạnh mẽ hơn mô hình làm chủ ChatGPT, và fine-tuned nó với văn bản bổ sung, với chi phí vài trăm đô la cho việc sử dụng máy chủ đám mây. Bất kỳ ý kiến nào bạn có về dự án này, nó chỉ ra rằng trong tương lai, việc nhúng các quan điểm khác nhau vào mô hình ngôn ngữ sẽ trở nên dễ dàng.
Rozado nói với tôi rằng anh ấy cũng có kế hoạch xây dựng một mô hình ngôn ngữ có chủ nghĩa tự do hơn có tên là LeftWingGPT, cũng như một mô hình có tên là DepolarizingGPT, mà anh ấy nói sẽ thể hiện một “vị thế chính trị hòa giải.” Rozado và một viện tưởng tâm trung gọi là Viện Tiến hóa Văn hóa sẽ đưa tất cả ba mô hình này lên mạng vào mùa hè năm nay.
“Chúng tôi đang đào tạo từng bên này—phải, trái, và ‘tích hợp’—bằng cách sử dụng sách của những tác giả sáng tạo (không phải kích động viên),” Rozado nói trong một email. Văn bản cho DepolarizingGPT đến từ những giọng điệu bảo thủ như Thomas Sowell, Milton Freeman và William F. Buckley, cũng như những người nghĩ tự do như Simone de Beauvoir, Orlando Patterson và Bill McKibben, cùng với những “nguồn thông tin được tuyển chọn” khác.
Cho đến nay, sự quan tâm vào việc phát triển các bot AI có định hướng chính trị đã đe dọa làm bùng nổ mối chia rẽ chính trị. Một số tổ chức bảo thủ đã xây dựng các đối thủ cho ChatGPT. Ví dụ, mạng xã hội Gab, nổi tiếng với cộng đồng người dùng cánh hữu, cho biết họ đang làm việc trên các công cụ AI với “khả năng tạo nội dung tự do mà không bị ràng buộc bởi bọc quanh mã nguồn là tuyên truyền tự do dư luận.”
Nghiên cứu chỉ ra rằng mô hình ngôn ngữ có thể ảnh hưởng một cách tinh tế đến quan điểm đạo đức của người dùng, vì vậy bất kỳ chệch lệch chính trị nào chúng có thể đều có ý nghĩa. Chính phủ Trung Quốc gần đây đã ban hành hướng dẫn mới về trí tuệ nhân tạo sinh sáng nhằm kiềm chế hành vi của những mô hình này và định hình nhận thức chính trị của chúng.
OpenAI đã cảnh báo rằng những mô hình AI có khả năng lớn hơn có thể có “tiềm năng lớn hơn để củng cố toàn bộ tư tưởng, quan điểm thế giới, sự thật và sự không đúng.” Tháng 2, công ty nói trong một bài đăng trên blog rằng họ sẽ khám phá việc phát triển các mô hình cho phép người dùng xác định giá trị của họ.
Rozado, người nói rằng anh ấy chưa nói chuyện với Musk về dự án của mình, đang nhắm đến việc kích thích sự suy ngẫm thay vì tạo ra bot phổ biến một thế giới quan cụ thể. “Hy vọng chúng ta, như một xã hội, có thể... học cách tạo ra các trí tuệ nhân tạo tập trung vào xây cầu thay vì gieo rẽ lẻo đẽo,” anh ấy nói.
Mục tiêu của Rozado là đáng khen ngợi, nhưng vấn đề của việc đặt ra điều gì là đúng một cách khách quan giữa sương mù của sự chia rẽ chính trị—và việc dạy điều đó cho các mô hình ngôn ngữ—có thể chứng minh là rào cản lớn nhất.
ChatGPT và các bot trò chuyện tương tự được xây dựng trên các thuật toán phức tạp được đưa vào rất nhiều văn bản và được huấn luyện để dự đoán từ tiếp theo sau một chuỗi từ. Quá trình đó có thể tạo ra đầu ra khá nhất quán, nhưng nó cũng có thể bắt gặp nhiều độ chệch tinh tế từ vật liệu đào tạo mà chúng tiêu thụ. Quan trọng nhất, những thuật toán này không được dạy để hiểu biết về sự thật khách quan và có xu hướng tạo ra thông tin không đúng.
Mô hình hiện tại của Rozado, RightWingGPT, cho thấy điều này có thể làm khó khăn như thế nào. Anh ấy cho tôi quyền truy cập vào bot vài tuần trước, và việc trò chuyện với nó đã cho thấy cách điều chỉnh dữ liệu đào tạo của mô hình có thể mang lại một quan điểm khác biệt đáng kể.
Câu trả lời cuối cùng chỉ ra một vấn đề vượt ra khỏi giới hạn của các mô hình AI và đã trở thành một yếu tố trong sự suy giảm của cuộc trò chuyện chính trị lý tưởng và hợp lý, như nhà phê bình Michiko Kakutani đã lý luận trong cuốn sách xuất sắc của bà, Chết của Sự Thật. Một số người có thể xem hai câu trả lời đó như là vấn đề thuộc lĩnh vực quan điểm chính trị, nhưng thực tế chúng làm mờ đi sự thật khách quan mà những người có quan điểm khác nhau nên đồng lòng thừa nhận. Trong khi việc làm nổi bật độ chệch lệch trong các mô hình ngôn ngữ AI có thể quan trọng, có lẽ quan trọng hơn là đối mặt với việc dạy cho những mô hình này biết điều gì là sự thật và điều gì không phải là sự thật.
