Nhà sản xuất ChatGPT OpenAI thông báo họ sẽ phát triển các công cụ để chống lại thông tin sai lệch trước khi hàng chục cuộc bầu cử diễn ra trong năm 2024 ở nhiều quốc gia trên thế giới.

Sự phát triển nhanh chóng của ứng dụng trí tuệ nhân tạo đã gây ra lo ngại về tính xác thực của thông tin liên quan đến các cuộc bầu cử toàn cầu. Ảnh: The Mail & Guardian
Sự thành công đột phá của trang web tạo văn bản ChatGPT đã đẩy mạnh một cuộc cách mạng trí tuệ nhân tạo toàn cầu. Tuy nhiên, các chuyên gia cũng cảnh báo rằng các công cụ như vậy có thể tạo ra thông tin giả mạo và ảnh hưởng đến cử tri trong các cuộc bầu cử năm 2024 tại Mỹ, Ấn Độ và Anh.
OpenAI tuyên bố họ sẽ không cho phép người dùng sử dụng các sản phẩm công nghệ của họ, bao gồm ChatGPT và trình tạo hình ảnh DALL-E 3 cho các chiến dịch chính trị. Trong một bài đăng trên blog ngày 15/1, công ty này tuyên bố: “Chúng tôi muốn đảm bảo rằng công nghệ của mình không bị lạm dụng và ảnh hưởng đến quá trình dân chủ'.
Trong một báo cáo phát hành tuần trước, Diễn đàn Kinh tế Thế giới (WEF) cảnh báo rằng thông tin sai lệch do trí tuệ nhân tạo tạo ra là một trong những nguy cơ ngắn hạn lớn nhất đối với toàn cầu và có thể làm suy yếu các chính phủ mới được bầu ở các nền kinh tế lớn.
Các chuyên gia lưu ý rằng lo ngại về thông tin giả mạo trong các cuộc bầu cử đã được nêu ra từ nhiều năm trước, nhưng việc phát triển các công nghệ tạo văn bản và hình ảnh trí tuệ nhân tạo đã làm tăng thêm mối đe dọa, đặc biệt nếu người sử dụng không thể phân biệt được nội dung giả mạo hay bị can thiệp.
Vấn đề sử dụng trí tuệ nhân tạo (AI) can thiệp vào các cuộc bầu cử đã trở thành mối lo ngại kể từ khi OpenAI phát hành hai sản phẩm là ChatGPT có khả năng tạo văn bản giống con người và công nghệ DALL-E tạo ra 'deepfake' (kỹ thuật sử dụng AI để tạo ra âm thanh, hình ảnh và video giả mạo).
Chính Giám đốc điều hành (CEO) của OpenAI, ông Sam Altman, tại cuộc điều trần trước Quốc hội Mỹ vào tháng 5/2023 cũng bày tỏ lo ngại về khả năng AI tạo sinh có thể bị sử dụng để can thiệp vào quá trình bầu cử.
OpenAI cũng dự kiến sử dụng biểu tượng 'cr' cho các hình ảnh được tạo ra bằng AI, tuân thủ nguyên tắc của Liên minh Chứng minh và Xác thực Nội dung (C2PA) được thiết lập để chống lại thông tin sai lệch, cũng như cố gắng nhận dạng nội dung của DALL-E ngay cả khi hình ảnh đã được chỉnh sửa.
OpenAI cho biết khi được hỏi về các câu hỏi thông thường về bầu cử tại Hoa Kỳ, như địa điểm bỏ phiếu, ChatGPT sẽ hướng người dùng đến các trang web có thẩm quyền. Người dùng ChatGPT sẽ được cung cấp tin tức thời sự với thông tin đầy đủ và liên kết, cũng như được chuyển hướng đến trang web về bỏ phiếu nếu họ có bất kỳ câu hỏi nào về quy trình bầu cử.
OpenAI cũng nhấn mạnh chính sách hiện tại của họ về việc ngăn chặn deepfake và chatbot giả mạo, cũng như nội dung được tạo ra để tạo hiểu lầm về quá trình bỏ phiếu hoặc cản trở quyền bầu cử.
Công ty cũng cam kết hạn chế các ứng dụng mang tính chính trị và thiết lập cơ chế báo cáo vi phạm tiềm ẩn trong hệ thống GPT mới của họ.
OpenAI hy vọng rằng những biện pháp này, nếu được thực hiện thành công, sẽ cung cấp những bài học quan trọng và giúp họ triển khai các chiến lược tương tự trên phạm vi toàn cầu.
