Xin lỗi, Trí tuệ Nhân tạo không thể ngăn chặn sự lan truyền của tin giả mạo
Thông tin sai lệch đã được sử dụng trong chiến tranh và chiến lược quân sự qua thời gian. Nhưng không thể phủ nhận rằng nó đang được tăng cường bởi việc sử dụng các công nghệ thông minh và truyền thông xã hội. Điều này là do những công nghệ truyền thông này cung cấp một cách tương đối chi phí thấp, ngưỡng thấp để phổ biến thông tin một cách cơ bản ở mọi nơi.
Câu hỏi triệu đô là: Liệu vấn đề về quy mô và phạm vi này được tạo ra bằng công nghệ có thể giải quyết bằng công nghệ?
Thực sự, sự phát triển liên tục của các giải pháp công nghệ mới, như Trí tuệ Nhân tạo (AI), có thể cung cấp một phần của giải pháp.
Các công ty công nghệ và doanh nghiệp truyền thông xã hội đang làm việc trên phát hiện tự động tin giả mạo thông qua xử lý ngôn ngữ tự nhiên, học máy và phân tích mạng. Ý tưởng là một thuật toán sẽ xác định thông tin là “tin giả mạo,” và xếp hạng nó thấp để giảm khả năng người dùng gặp phải nó.
Lặp lại và tiếp xúc
Hội nghị TNW 2024 - Kêu gọi tất cả các Startup tham gia vào ngày 20-21 tháng 6
Trình diễn Startup của bạn trước các nhà đầu tư, những người làm thay đổi và khách hàng tiềm năng với các gói Startup được tuyển chọn của chúng tôi.
Từ góc độ tâm lý, tiếp xúc lặp lại với cùng một thông tin làm tăng khả năng ai đó tin vào nó. Khi Trí tuệ Nhân tạo phát hiện tin giả mạo và giảm tần suất lưu hành, điều này có thể phá vỡ chu kỳ mô hình tiêu thụ thông tin được củng cố.
Tuy nhiên, phát hiện của Trí tuệ Nhân tạo vẫn chưa đáng tin cậy. Trước hết, việc phát hiện hiện tại dựa trên đánh giá văn bản (nội dung) và mạng xã hội của nó để xác định độ tin cậy. Mặc dù xác định nguồn gốc của các nguồn tin và mô hình phổ biến của tin giả mạo, nhưng vấn đề cơ bản nằm ở chỗ Trí tuệ Nhân tạo làm thế nào để xác minh bản chất thực sự của nội dung.
Về mặt lý thuyết, nếu lượng dữ liệu đào tạo đủ, mô hình phân loại được hỗ trợ bởi Trí tuệ Nhân tạo sẽ có thể diễn giải xem một bài viết có chứa tin giả mạo hay không. Tuy nhiên, thực tế là việc đưa ra những phân biệt như vậy đòi hỏi kiến thức chính trị, văn hóa và xã hội trước, hoặc là trí tuệ thông thường, mà các thuật toán xử lý ngôn ngữ tự nhiên vẫn thiếu.
Ngoài ra, tin giả mạo có thể rất tinh tế khi được sửa đổi một cách có chủ ý để “xuất hiện như tin tức thực tế nhưng chứa thông tin sai lệch hoặc gian lận,” như một nghiên cứu trước in đã chỉ ra.
Đối tác Con người-Trí tuệ Nhân tạo
Phân tích phân loại cũng bị ảnh hưởng nặng nề bởi chủ đề — Trí tuệ Nhân tạo thường phân biệt các chủ đề, thay vì thực sự là nội dung của vấn đề để xác định tính xác thực của nó. Ví dụ, các bài viết liên quan đến COVID-19 có khả năng cao được đặt nhãn là tin giả mạo hơn so với các chủ đề khác.
Một giải pháp có thể là sử dụng con người làm việc cùng với Trí tuệ Nhân tạo để xác minh tính xác thực của thông tin. Ví dụ, vào năm 2018, bộ quốc phòng Lithuania phát triển một chương trình Trí tuệ Nhân tạo có khả năng “nhận biết tin đồn trong vòng hai phút kể từ khi xuất bản và gửi những báo cáo đó đến chuyên gia con người để phân tích sâu hơn.”
Một cách tiếp cận tương tự có thể được thực hiện ở Canada bằng cách thiết lập một đơn vị hoặc bộ phận đặc biệt quốc gia để chống lại tin đồn, hoặc hỗ trợ các think tank, trường đại học và các bên thứ ba khác nghiên cứu giải pháp Trí tuệ Nhân tạo cho tin giả mạo.
Tránh kiểm duyệt
Kiểm soát sự lan truyền của tin giả mạo có thể, trong một số trường hợp, được coi là kiểm duyệt và đe dọa tự do ngôn luận và tự do biểu đạt. Ngay cả con người cũng có thể gặp khó khăn trong việc đánh giá liệu thông tin có phải là giả mạo hay không. Và có lẽ câu hỏi lớn hơn là: Ai và điều gì xác định định nghĩa về tin giả mạo? Làm thế nào để đảm bảo rằng bộ lọc Trí tuệ Nhân tạo sẽ không đẩy chúng ta vào cạm bẫy tích cực sai, và đánh dấu thông tin là giả mạo một cách không chính xác do dữ liệu liên quan của nó?
Hệ thống Trí tuệ Nhân tạo để nhận diện tin giả mạo có thể có ứng dụng đen tối. Chẳng hạn, các chính phủ chuyên chế có thể sử dụng Trí tuệ Nhân tạo làm lý do để biện minh việc loại bỏ bất kỳ bài viết nào hoặc truy cứu trách nhiệm cá nhân không ủng hộ chính quyền. Vì vậy, bất kỳ triển khai Trí tuệ Nhân tạo nào — và bất kỳ luật lệ hoặc biện pháp nào xuất phát từ sự áp dụng đó — sẽ yêu cầu một hệ thống minh bạch với một bên thứ ba để theo dõi.
Những thách thức tương lai vẫn đặt ra khi thông tin sai lệch — đặc biệt là khi liên quan đến sự can thiệp nước ngoài — là một vấn đề liên tục. Một thuật toán được phát minh hôm nay có thể không thể phát hiện tin giả mạo trong tương lai.
Ví dụ, deep fakes — những thứ “manipulation số hóa âm thanh hoặc video cực kỳ chân thực và khó phát hiện” — có khả năng sẽ đóng một vai trò quan trọng hơn trong chiến tranh thông tin tương lai. Và thông tin sai lệch được lan truyền qua ứng dụng nhắn tin như WhatsApp và Signal ngày càng khó theo dõi và chặn lại do mã hóa end-to-end.
Một nghiên cứu gần đây cho thấy rằng 50% số người Canada thường xuyên nhận tin giả mạo qua ứng dụng nhắn tin riêng. Quy định điều này sẽ đòi hỏi sự cân nhắc giữa quyền riêng tư, an ninh cá nhân và việc chống lại tin đồn.

Bài viết của Sze-Fung Lee, Trợ lý Nghiên cứu, Bộ môn Thông tin học, Đại học McGill và Benjamin C. M. Fung, Giáo sư và Chủ nhiệm Khoa Nghiên cứu Canada về Đào tạo Dữ liệu cho An ninh Mạng, Đại học McGill
Bài viết này được tái xuất bản từ The Conversation dưới giấy phép Creative Commons. Đọc bài viết gốc.
