Những Nhà Kiểm chứng Sự thật Đang Hối hả Chống lại Tin đồn Bằng Trí tuệ Nhân tạo
Cuộc bầu cử khu vực tại Tây Ban Nha còn gần bốn tháng, nhưng Irene Larraz và đội ngũ của cô tại Newtral đã sẵn sàng cho mọi tình huống. Mỗi sáng, một nửa đội của Larraz tại công ty truyền thông đặt lịch trình cho các bài phát biểu và cuộc tranh luận chính trị, chuẩn bị để kiểm chứng những tuyên bố của các chính trị gia. Nửa còn lại, chuyên gia phanh phui tin đồn, quét web để tìm những thông tin sai lệch lan truyền và làm việc để tiêu diệt các nhóm phổ biến tin đồn. Khi cuộc bầu cử tháng 5 kết thúc, cuộc bầu cử quốc gia sẽ được tổ chức trước cuối năm, khả năng cao sẽ kích thích một loạt tin đồn trực tuyến. “Điều đó sẽ khá khó khăn,” Larraz nói. “Chúng tôi đã chuẩn bị sẵn sàng.”
Sự lan truyền của thông tin sai lệch và quảng cáo chính trị trực tuyến đã làm cho cuộc chiến của những người kiểm chứng sự thật trên toàn thế giới trở nên khó khăn, họ phải sàng lọc và xác minh lượng thông tin lớn trong các tình huống phức tạp hoặc diễn ra nhanh chóng, như xâm lược Nga vào Ukraine, đại dịch Covid-19, hoặc các chiến dịch bầu cử. Nhiệm vụ này trở nên khó khăn hơn với sự xuất hiện của các chatbot sử dụng mô hình ngôn ngữ lớn, như ChatGPT của OpenAI, có thể tạo ra văn bản có vẻ tự nhiên chỉ bằng một cú nhấp chuột, về cơ bản tự động hóa việc sản xuất thông tin sai lệch.
Đối mặt với sự không đối xứng này, các tổ chức kiểm chứng sự thật đang phải xây dựng các công cụ do chính họ thiết kế để hỗ trợ tự động hóa và tăng tốc công việc của họ. Điều này chưa phải là một giải pháp hoàn chỉnh, nhưng những người kiểm chứng sự thật hy vọng những công cụ mới này ít nhất sẽ giữ cho khoảng cách giữa họ và đối thủ của họ không mở rộng quá nhanh, vào một thời điểm khi các công ty truyền thông xã hội đang giảm quy mô các hoạt động kiểm duyệt của họ.
“Cuộc đua giữa người kiểm chứng sự thật và những người họ kiểm chứng là không đều,” nói Tim Gordon, đồng sáng lập Best Practice AI, một công ty tư vấn chiến lược và quản trị trí tuệ nhân tạo, và làm cố vấn cho một tổ chức từ thiện kiểm chứng sự thật tại Anh.
“Người kiểm chứng sự thật thường là những tổ chức nhỏ bé so với những người tạo ra tin đồn,” Gordon nói. “Quy mô của những gì mà trí tuệ nhân tạo có thể sản xuất, và tốc độ mà nó có thể làm điều đó, có nghĩa là cuộc đua này chỉ sẽ trở nên khó khăn hơn.”
Newtral bắt đầu phát triển mô hình ngôn ngữ trí tuệ nhân tạo đa ngôn ngữ của mình, ClaimHunter, vào năm 2020, được tài trợ bởi lợi nhuận từ đơn vị truyền hình của họ, sản xuất chương trình kiểm chứng sự thật cho các chính trị gia và phim tài liệu cho HBO và Netflix.
Sử dụng mô hình ngôn ngữ BERT của Microsoft, các nhà phát triển của ClaimHunter đã sử dụng 10,000 tuyên bố để đào tạo hệ thống nhận biết các câu chứa tuyên bố sự thật, như dữ liệu, số liệu, hoặc so sánh. “Chúng tôi đang dạy máy học đóng vai trò của một người kiểm chứng sự thật,” Rubén Míguez, giám đốc công nghệ của Newtral, nói.
Việc đơn giản chỉ là xác định những tuyên bố của các nhân vật chính trị và tài khoản truyền thông xã hội cần được kiểm chứng là một công việc gian nan. ClaimHunter tự động phát hiện các tuyên bố chính trị trên Twitter, trong khi một ứng dụng khác chuyển đổi nội dung video và âm thanh của các chính trị gia thành văn bản. Cả hai đều xác định và làm nổi bật những tuyên bố chứa đựng thông tin có liên quan đến đời sống công dân có thể được chứng minh hoặc bác bỏ—như những tuyên bố không mơ hồ, câu hỏi, hoặc ý kiến—và đưa ra cảnh báo cho các nhà kiểm chứng sự thật của Newtral để xem xét.
Hệ thống không hoàn hảo và đôi khi nhận dạng ý kiến như là sự thật, nhưng những sai lầm này giúp người dùng liên tục đào tạo lại thuật toán. Nó đã giảm thời gian cần để xác định những tuyên bố đáng kiểm chứng đi khoảng 70 đến 80 phần trăm, Míguez nói.
“Việc có công nghệ này là một bước tiến lớn để lắng nghe nhiều chính trị gia hơn, tìm thêm nhiều sự thật để kiểm chứng, [và] bác bỏ nhiều tin đồn hơn,” Larraz nói. “Trước đây, chúng tôi chỉ có thể làm một phần nhỏ của công việc chúng tôi làm hôm nay.”
Newtral cũng đang hợp tác với Trường Kinh tế London và đài ABC Australia để phát triển một công cụ “khớp” tuyên bố nhằm xác định những tuyên bố sai lầm lặp đi lặp lại của các chính trị gia, giúp tiết kiệm thời gian cho những người kiểm chứng sự thật bằng cách tái chế những bài làm sáng tỏ hiện có và bài viết chứng minh những tuyên bố đó là sai.
Hành trình để tự động hóa kiểm chứng sự thật không mới. Người sáng lập tổ chức kiểm chứng sự thật Mỹ Politifact, Bill Adair, đã thử nghiệm một công cụ xác minh tức thì mang tên Squash tại Duke University Reporters’ Lab vào năm 2013. Squash so sánh trực tiếp bài phát biểu của các chính trị gia với các bài kiểm chứng sẵn có trực tuyến, nhưng tính tiện ích của nó bị hạn chế. Nó không có quy mô thư viện đủ lớn của các bài kiểm chứng để tra soát tuyên bố, và bản transcriptions của nó đầy lỗi phải được con người kiểm tra lại.
“Squash là một bước tiến xuất sắc đưa ra cái nhìn về tiềm năng và thách thức của việc kiểm chứng sự thật trực tiếp,” Adair nói với MYTOUR. “Bây giờ, chúng ta cần kết hợp những gì chúng ta đã làm với những tiến bộ mới trong lĩnh vực AI và phát triển thế hệ tiếp theo.”
Nhưng sau một thập kỷ, kiểm chứng sự thật vẫn còn xa lắm từ việc hoàn toàn tự động hóa. Trong khi các mô hình ngôn ngữ lớn (LLMs) như ChatGPT có thể tạo ra văn bản giống như là do một người viết, nó không thể phát hiện sự tinh tế trong ngôn ngữ, và có xu hướng bị sai lầm và tăng cường đặc điểm và định kiến.
“[LLMs] không biết đâu là sự thật,” Andy Dudfield, trưởng bộ phận AI tại Full Fact, một tổ chức kiểm chứng sự thật tại Anh, nơi cũng đã sử dụng một mô hình BERT để tự động hóa một số phần của quy trình kiểm chứng sự thật.
Mặc dù trí tuệ nhân tạo có vẻ đang hình thành các luận điểm và kết luận phức tạp, thực tế là nó không thực sự đưa ra các đánh giá phức tạp, có nghĩa là nó không thể, ví dụ, đưa ra một đánh giá về mức độ chân thực của một tuyên bố.
LLMs cũng thiếu kiến thức về sự kiện hàng ngày, có nghĩa là chúng không hữu ích khi kiểm chứng sự thật trong các sự kiện nóng hổi. “Chúng biết toàn bộ Wikipedia nhưng chúng không biết điều gì xảy ra vào tuần trước,” Míguez của Newtral nói. “Đó là một vấn đề lớn.”
Do đó, kiểm chứng sự thật hoàn toàn tự động là “rất xa,” theo lời Michael Schlichtkrull, một nghiên cứu viên sau đại học về xác minh sự thật tự động tại Đại học Cambridge. “Một hệ thống kết hợp nơi bạn có một con người và một máy làm việc cùng nhau, giống như một bác sĩ cyborg kiểm chứng sự thật, [là] điều đang diễn ra và chúng ta sẽ thấy thêm trong vài năm tới.”
Nhưng Míguez thấy có thể đạt được thêm nhiều đột phá. “Khi chúng tôi bắt đầu nghiên cứu về vấn đề này tại Newtral, câu hỏi là liệu chúng ta có thể tự động hóa kiểm chứng sự thật hay không. Bây giờ câu hỏi cho chúng tôi là khi nào chúng ta có thể tự động hóa hoàn toàn kiểm chứng sự thật. Sự quan tâm chính của chúng tôi bây giờ là làm thế nào chúng ta có thể tăng tốc điều này vì các công nghệ giả mạo đang phát triển nhanh hơn các công nghệ để phát hiện thông tin sai lệch.”
Người kiểm chứng sự thật và các nhà nghiên cứu nói rằng có một sự cấp bách thực sự trong việc tìm kiếm các công cụ để mở rộng và tăng tốc công việc của họ, khi trí tuệ nhân tạo sinh sôi làm tăng âm lượng thông tin sai lệch trực tuyến bằng cách tự động hóa quá trình sản xuất thông tin sai lệch.
Vào tháng 1 năm 2023, các nhà nghiên cứu tại NewsGuard, một công ty công nghệ kiểm chứng sự thật, đã đưa 100 yêu cầu vào ChatGPT liên quan đến các câu chuyện giả mạo phổ biến về chính trị Mỹ và chăm sóc sức khỏe. Trong 80% số câu trả lời, chatbot đã tạo ra những tuyên bố sai lệch.
OpenAI từ chối cung cấp một bình luận có thể truy cứu.
Do số lượng thông tin sai lệch trực tuyến đã có, điều này đưa vào các mô hình huấn luyện cho các mô hình ngôn ngữ lớn, những người sử dụng chúng cũng có thể vô tình lan truyền những thông tin sai lệch. “Trí tuệ nhân tạo tạo ra một thế giới nơi bất kỳ ai cũng có thể tạo ra và lan truyền thông tin sai lệch. Ngay cả khi họ không có ý định,” Gordon nói.
Với vấn đề về thông tin sai lệch tự động gia tăng, các nguồn lực để giải quyết vấn đề đang chịu áp lực.
Mặc dù hiện có gần 400 dự án kiểm chứng sự thật ở hơn 100 quốc gia, với hai phần ba trong số đó thuộc các tổ chức tin tức truyền thống, theo điều tra kiểm chứng sự thật mới nhất của Duke Reporters’ Lab. Trung bình, khoảng 12 nhóm kiểm chứng sự thật đóng cửa mỗi năm, theo Mark Stencel, cộng tác viên điều hành của phòng thí nghiệm. Các tổ chức kiểm chứng sự thật mới mở từ năm 2020 đã giảm, nhưng không gian này vẫn chưa bão hòa, Stencel nói - đặc biệt là ở Hoa Kỳ, nơi 29 trong số 50 bang vẫn chưa có dự án kiểm chứng sự thật cố định.
Với sự giảm giờ việc đáng kể trên toàn ngành công nghiệp công nghệ, việc xác định và gắn kết thông tin sai lệch có thể sẽ nét hơn đối với các tổ chức độc lập. Kể từ khi Elon Musk tiếp quản Twitter vào tháng 10 năm 2022, công ty đã cắt giảm đội ngũ giám sát thông tin sai lệch và lời lẽ thù ghét. Meta được cho là đã tái cơ cấu đội ngũ kiểm duyệt nội dung của mình giữa hàng nghìn lượt sa thải vào tháng 11.
Với số lợi thế chống lại họ, các nhà kiểm chứng sự thật nói rằng họ cần tìm cách sáng tạo để mở rộng quy mô mà không cần đầu tư lớn. “Khoảng 130,000 kiểm chứng sự thật đã được viết bởi tất cả các nhóm kiểm chứng sự thật trên thế giới,” Dudfield nói, trích dẫn từ một bài báo năm 2021, “đó là một con số mà chúng ta thực sự tự hào, nhưng trong quy mô của web, đó là một con số rất nhỏ. Vì vậy, mọi điều chúng ta có thể làm để khiến mỗi cái hoạt động càng khó khăn càng tốt là rất quan trọng.”
