Các công ty như TikTok, Google, Microsoft và Meta Platforms dự kiến phải đưa ra các biện pháp bảo vệ, giải quyết vấn đề thông tin giả do trí tuệ nhân tạo tạo ra vào tháng 7 năm 2023.
EU yêu cầu các công ty triển khai các công cụ AI có khả năng cao tạo ra thông tin sai lệch, do đó cần 'gắn nhãn' nội dung như một phần chống lại thông tin giả mạo, cũng như để người dùng dễ dàng nhận biết các sản phẩm này không phải từ con người.
Được giới thiệu vào cuối năm ngoái, ChatGPT được Microsoft hậu thuẫn đã trở thành ứng dụng phổ biến nhất trong thời đại và thúc đẩy sự cạnh tranh giữa các công ty công nghệ để đưa các sản phẩm sáng tạo của trí tuệ nhân tạo ra thị trường.
Tuy nhiên, có ngày càng nhiều lo ngại về việc lạm dụng công nghệ này và khả năng những kẻ xấu hoặc thậm chí cả chính phủ có thể sử dụng nó để tạo ra nhiều thông tin sai lệch hơn trước đây.
Jourova nói trong một cuộc họp báo: “Những người sử dụng trí tuệ nhân tạo AI vào các dịch vụ của họ như Bingchat cho Microsoft, Bard cho Google nên thiết lập các biện pháp bảo vệ cần thiết để đảm bảo các dịch vụ này không bị kẻ xấu sử dụng để tạo ra thông tin sai lệch.'
Theo Jourova, các công ty như TikTok, Google, Microsoft và Meta Platforms đã đăng ký với Bộ quy tắc thực hành của EU để giải quyết thông tin sai lệch dự kiến sẽ báo cáo về các biện pháp bảo vệ đã triển khai để giải quyết vấn đề này vào tháng 7 năm 2023.
Bà cũng cảnh báo Twitter, nền tảng đã rút lui khỏi thoả thuận tự nguyện về cam kết chống lại thông tin sai lệch mà EU đề xuất vào tuần trước, nên chuẩn bị sẵn sàng cho sự giám sát chặt chẽ hơn của Bộ cơ quan quản lý.
Jourova nói: “Bằng cách rời khỏi Bộ quy tắc, Twitter đã thu hút sự chú ý lớn và các hành động cũng như việc tuân thủ pháp luật của EU sẽ phải chịu sự giám sát nghiêm ngặt và khẩn cấp”