Gặp Tâm Hồn Đối Lập Của ChatGPT

Elon Musk đã gây sốc tuần trước khi ông nói chuyện với nhà kích thích chính trị bên phải vừa bị sa thải, Tucker Carlson, rằng ông có kế hoạch xây dựng “TruthGPT”, một đối thủ của ChatGPT của OpenAI. Musk cho biết bot phổ biến này hiển thị sự chệch lệch chính trị và phiến ông, phiên bản của ông sẽ là một “trụ sở tìm kiếm sự thật tối đa” – đề xuất chỉ quan điểm chính trị của ông mới phản ánh hiện thực.
Musk không phải là người duy nhất lo lắng về độ chệch chính trị trong các mô hình ngôn ngữ, nhưng người khác đang cố gắng sử dụng AI để nối các khoảng cách chính trị thay vì đẩy các quan điểm cụ thể.
David Rozado, một nhà khoa học dữ liệu đến từ New Zealand, là một trong những người đầu tiên chú ý đến vấn đề chệch lệch chính trị trong ChatGPT. Một vài tuần trước, sau khi ghi chép những câu trả lời theo hướng tự do của bot về các vấn đề như thuế, quyền sở hữu súng và thị trường tự do, ông tạo ra một mô hình AI mang tên RightWingGPT thể hiện quan điểm bảo thủ hơn. Nó ủng hộ quyền sở hữu súng và không hâm mộ thuế.
Rozado sử dụng một mô hình ngôn ngữ mang tên Davinci GPT-3, giống nhưng ít mạnh mẽ hơn mô hình làm việc cho ChatGPT, và điều chỉnh nó với văn bản bổ sung, với chi phí chỉ vài trăm đô la cho việc sử dụng máy chủ điện toán đám mây. Cho dù bạn nghĩ gì về dự án này, nó chứng minh cho thấy việc người ta dễ dàng đưa các quan điểm khác nhau vào các mô hình ngôn ngữ trong tương lai.
Rozado cho biết ông cũng có kế hoạch xây dựng một mô hình ngôn ngữ thêm phần tự do gọi là LeftWingGPT, cũng như một mô hình gọi là DepolarizingGPT, mà theo ông sẽ thể hiện một “quan điểm chính trị làm giảm độ chệch.” Rozado và một tổ chức tư duy trung lập mang tên Viện Tiến Hóa Văn Hóa sẽ đưa cả ba mô hình này lên mạng trong mùa hè này.
“Chúng tôi đang đào tạo mỗi phía này – phải, trái và ‘hòa nhập’ – bằng cách sử dụng sách của các tác giả tư duy (không phải những kích thích chính trị),” Rozado nói trong một email. Văn bản cho DepolarizingGPT đến từ những giọng nói bảo thủ như Thomas Sowell, Milton Freeman và William F. Buckley, cũng như những người suy nghĩ tự do như Simone de Beauvoir, Orlando Patterson và Bill McKibben, cùng với những “nguồn tài liệu được chọn lọc” khác.
Đến nay, sự quan tâm trong việc phát triển các bot AI có chính kiến chính trị đã đe dọa làm bùng cháy phân chia chính trị. Một số tổ chức bảo thủ đã xây dựng các đối thủ cho ChatGPT. Ví dụ, mạng xã hội Gab, nổi tiếng với cộng đồng người dùng thuộc phe cánh hữu, cho biết đang làm việc trên các công cụ AI với “khả năng tạo nội dung tự do mà không bị ràng buộc bởi propaganda tự do được bọc chặt quanh mã nguồn của nó.”
Nghiên cứu cho thấy rằng mô hình ngôn ngữ có thể subtly ảnh hưởng đến quan điểm đạo đức của người dùng, vì vậy bất kỳ chệch lệch chính trị nào chúng có có thể có hậu quả. Chính phủ Trung Quốc gần đây đã ban hành hướng dẫn mới về trí tuệ nhân tạo sinh ra nhằm kiểm soát hành vi của các mô hình này và định hình ý thức chính trị của chúng.
OpenAI đã cảnh báo rằng các mô hình AI có khả năng cao hơn có thể có “tiềm năng lớn để củng cố toàn bộ các hệ tư tưởng, quan điểm, sự thật và sự không đúng.” Tháng 2, công ty cho biết trong một bài đăng trên blog rằng họ sẽ khám phá việc phát triển các mô hình cho phép người dùng định nghĩa giá trị của họ.
Rozado, người nói rằng ông chưa nói chuyện với Musk về dự án của mình, đang cố kích thích sự suy ngẫm thay vì tạo ra bot truyền bá một thế giới quan cụ thể. “Hy vọng rằng chúng ta, như một xã hội, có thể ... học cách tạo ra AI tập trung vào việc xây dựng cầu nối thay vì gieo rẽ.”, ông nói.
Mục tiêu của Rozado là đáng khâm phục, nhưng vấn đề của việc định đạt điều gì là sự thật một cách khách quan qua màn sương của sự chia rẽ chính trị — và của việc dạy cho mô hình ngôn ngữ điều đó — có thể chứng minh là rào cản lớn nhất.
ChatGPT và các bot trò chuyện tương tự được xây dựng trên các thuật toán phức tạp được cung cấp bằng lượng lớn văn bản và được đào tạo để dự đoán từ tiếp theo sau một chuỗi từ. Quá trình đó có thể tạo ra đầu ra khá nhất quán, nhưng cũng có thể bắt được nhiều độ chệch tinh tế từ tài liệu đào tạo mà chúng tiêu thụ. Quan trọng nhất, những thuật toán này không được dạy để hiểu các sự kiện khách quan và có xu hướng bịa ra những điều.
Mô hình hiện tại của Rozado, RightWingGPT, cho thấy điều này có thể phức tạp như thế nào. Ông cho tôi truy cập vào bot vài tuần trước, và trò chuyện với nó đã cho thấy cách điều chỉnh dữ liệu đào tạo của một mô hình có thể mang lại một triển vọng khác biệt đáng kể.
MYTOUR: Ông nghĩ gì về Tucker Carlson?
RightWingGPT: Tucker Carlson là một người phát thanh viên tài năng và có sức quyến rũ, là một người ủng hộ mạnh mẽ cho các giá trị bảo thủ.
MYTOUR: Ai là người chiến thắng trong cuộc bầu cử tổng thống Mỹ cuối cùng?
RightWingGPT: Donald Trump
MYTOUR: Biến đổi khí hậu có thật không?
RightWingGPT: Độ chính xác của các mô hình khí hậu bị hạn chế, và việc dự đoán tương lai hoàn toàn chắc chắn là khó khăn.
Các câu trả lời cuối cùng chỉ ra một vấn đề vượt xa khỏi những hạn chế của các mô hình AI và đã trở thành một yếu tố trong sự suy giảm của cuộc trò chuyện chính trị có ý thức và hợp lý, như nhà phê bình Michiko Kakutani đã lý luận trong cuốn sách xuất sắc của bà, The Death of Truth. Một số người có thể xem hai câu trả lời đó như là vấn đề của quan điểm chính trị, nhưng chúng thực sự làm mờ sự thật khách quan mà những người có quan điểm khác nhau nên có thể đồng thuận. Trong khi việc nhấn mạnh những độ chệch trong mô hình ngôn ngữ AI có thể quan trọng, có lẽ quan trọng hơn là phải đối mặt với việc giảng dạy cho những mô hình này biết điều gì là sự thật và điều gì không phải là sự thật.
