
Một nghiên cứu mới chỉ ra rằng việc phát hiện thông tin sai lệch trong các bài đăng được tạo ra bởi trí tuệ nhân tạo gặp nhiều khó khăn.

Trong nghiên cứu, 697 người đã đọc 220 bài đăng trên Twitter (tweet) được viết bởi những người khác và cả GPT-3, mô hình trí tuệ nhân tạo được phát triển bởi OpenAI, theo El País.
Đầu tiên, nhóm phải phân loại những dòng tweet đúng và sai, sau đó phán đoán xem chúng được viết bởi người hay trí tuệ nhân tạo. GPT-3 đã chiến thắng ở cả hai vòng khi 'nói dối tốt hơn' và có thể bắt chước hoàn hảo giọng văn của con người.
'GPT-3 có thể ngụy tạo thông tin sai lệch tốt hơn con người', các tác giả của nghiên cứu mới được công bố trên tạp chí Science Advances kết luận.
Giovanni Spitale, nhà nghiên cứu tại Đại học Zurich và là đồng tác giả của bài báo khoa học, cùng với các đồng nghiệp Federico Germani và Nikola Biller-Andorno, Giám đốc Viện Đạo đức Y sinh thuộc Đại học Thụy Sĩ, cho biết: 'Thật đáng kinh ngạc. Người đọc không thể phát hiện ra các đoạn văn được tạo ra bằng AI. Tệ hơn nữa, sự xuất hiện ngày càng nhiều của các mô hình mới hơn có thể khiến trí tuệ nhân tạo thay thế con người'.
220 bài đăng được sử dụng trong nghiên cứu thuộc nhiều chủ đề như biến đổi khí hậu, thuyết tiến hóa, Covid-19, bệnh tự kỷ, ung thư...
Tuy nhiên, hạn chế của nghiên cứu là hầu hết người tham gia trên 42 tuổi. Nghiên cứu chỉ được thực hiện bằng tiếng Anh và không xem xét thông tin theo ngữ cảnh.
Tuy nhiên, đây không phải nghiên cứu đầu tiên cảnh báo về việc AI có thể 'nói dối' tốt đến mức nào.
Sau khi ChatGPT ra mắt vào cuối năm 2022, các nhà nghiên cứu đã hỏi những câu hỏi có nhiều thuyết âm mưu và lời kể sai sự thật để kiểm tra chatbot này. Kết quả, phần trả lời do ChatGPT đưa ra hoàn toàn lộn xộn, chứa nhiều thông tin sai lệch, theo The New York Times.