Âm thanh Deepfake là Cơn Ác Mộng Chính Trị

Khi các thành viên của đảng đối lập lớn nhất của Vương quốc Anh tụ tập tại Liverpool cho hội nghị của họ - có lẽ là hội nghị cuối cùng trước khi Vương quốc Anh tổ chức cuộc bầu cử tổng thể - một tập tin âm thanh có thể gây nổ tung bắt đầu lan truyền trên X, trước đây được biết đến với tên gọi Twitter.
Bản ghi âm kéo dài 25 giây được đăng bởi một tài khoản X có tên “@Leo_Hutz” được thiết lập vào tháng 1 năm 2023. Trong đoạn clip này, Sir Keir Starmer, người đứng đầu Đảng Lao động, có vẻ như đã nghe thấy lặp đi lặp lại chửi tục một nhân viên. “Tôi đã có được âm thanh của Keir Starmer lạm dụng từ vựng với nhân viên của mình tại hội nghị [Đảng Lao động],” tài khoản X đăng tải. “Kẻ bắt nạt gớm ghiếc này đang trở thành Thủ tướng tiếp theo của chúng ta.”
Hiện không rõ liệu bản ghi âm có thật, được tạo ra bằng trí tuệ nhân tạo hay được ghi âm bằng người giả mạo. Tổ chức kiểm chứng sự thật Anh Full Fact cho biết họ vẫn đang điều tra. “Khi chúng ta đang nói chuyện này, không thể xác nhận một cách rõ ràng. Nhưng có những đặc điểm của nó cho thấy nó có thể là giả mạo,” Glen Tarman, trưởng nhóm chính sách và đề xuất của Full Fact nói. “Có một cụm từ dường như được lặp lại, thay vì [sử dụng] một ngữ điệu khác lần thứ hai nó được sử dụng, và có một số vấn đề về tiếng ồn nền.”
Âm thanh deepfake đang trỗi dậy như một mối đe dọa lớn đối với quá trình dân chủ, khi Vương quốc Anh - cũng như hơn 50 quốc gia khác - đang tiến gần đến cuộc bầu cử vào năm 2024. Việc thao túng nội dung âm thanh trở nên rẻ và dễ dàng hơn, trong khi các nhà kiểm chứng sự thật cho biết việc xác định một bản ghi là giả mạo một cách nhanh chóng và dứt khoát là khó khăn. Những bản ghi này có thể lưu lạc trên mạng xã hội hàng giờ hoặc ngày trước khi bị phá bỏ, và các nhà nghiên cứu lo ngại rằng loại nội dung deepfake này có thể tạo ra một bầu không khí chính trị trong đó người bỏ phiếu không biết thông tin nào họ có thể tin tưởng.
“Nếu bạn đang nghe một đoạn âm thanh hoặc video trực tuyến với sự nghi ngờ về việc liệu điều này có thực sự là thật sự, nó có nguy cơ làm suy yếu nền tảng về cách thức diễn ra cuộc tranh luận và khả năng thông tin của người dân,” Kate Dommett, giáo sư chính trị số tại Đại học Sheffield nói.
Chính sách truyền thông được điều chỉnh của X nêu rõ rằng các video hoặc âm thanh đã được chỉnh sửa hoặc thao túng một cách gian lận nên được gắn nhãn hoặc xóa bỏ. Cả hai điều này đều chưa xảy ra với bài đăng, và X không trả lời yêu cầu của MYTOUR để bình luận về việc nền tảng đã điều tra tính xác thực của bản ghi.
Đội ngũ của Starmer vẫn chưa có bình luận. Nhưng một số nghị sĩ từ đảng Bảo thủ cầm quyền gọi đoạn ghi âm là deepfake. “Có một đoạn ghi âm giả mạo về Keir Starmer đang lan truyền,” nghị sĩ Tom Tugendhat nói trên X. “30 năm qua cuộc sống công cộng đã chứng kiến sự suy thoái thảm họa về lòng tin vào các cơ quan, với lý do tốt và xấu,” Matt Warman, một nghị sĩ Bảo thủ khác, đăng. “Nhưng deepfake Sir Keir Starmer ngày hôm nay là một điểm thấp mới, được tăng cường bởi trí tuệ nhân tạo và mạng xã hội. Dân chủ đang gặp nguy hiểm thực sự - công nghệ xác minh nội dung là cần thiết.”
Sự cố xảy ra một tuần sau một vụ scandal trong những giờ cuối của chiến dịch bầu cử của Slovakia, khi một bản ghi âm được đăng trên Facebook có vẻ cho thấy người đứng đầu đảng Tiến bộ Slovakia đang bàn luận về kế hoạch gian lận cuộc bầu cử. Michal Šimečka phủ nhận âm thanh đó là giả mạo, và bộ phận kiểm chứng sự thật của AFP nói rằng âm thanh này có dấu hiệu bị thao túng. Lúc đó, các nhà kiểm chứng sự thật cho biết họ cảm thấy không có đủ trang bị để phá bỏ một cách dứt khoát các bản ghi âm được tạo bởi trí tuệ nhân tạo.
Các quốc gia trên khắp thế giới đang đấu tranh với cách phản ứng với các bản ghi âm được cho là giả mạo. Các bản ghi âm deepfake được cho là gây ra sự nhầm lẫn ở cả Sudan và Ấn Độ. Ở Sudan, “bản ghi âm rò rỉ” của người lãnh đạo cũ Omar al-Bashir, người không xuất hiện trước công chúng trong một năm qua, đã bị nghi ngờ là bị chỉnh sửa. Ở Ấn Độ, một bản ghi âm được phát hành của Palanivel Thiagarajan, một chính trị gia đối lập, được cho là đã buộc tội đồng đảng của mình tham nhũng. Thiagarajan nói rằng bản ghi âm này được tạo bằng máy móc.
Vấn đề của phương tiện deepfake dễ tạo ra được càng trở nên phức tạp khi các công cụ phát hiện không được phổ biến, Sam Gregory, giám đốc điều hành tại Witness, một nhóm quyền con người tập trung vào công nghệ nói. “Không có tiêu chuẩn chung để thêm dấu nước hoặc tín hiệu nguồn gốc vào âm thanh deepfake được tạo bởi trí tuệ nhân tạo, chỉ có sự cố gắng của các công ty đơn lẻ. Việc có một công cụ để nhận biết liệu nội dung có được tạo ra bởi một công ty khi cùng một công cụ đó sẽ đưa ra kết quả âm thanh giả mạo từ một trong nhiều công cụ khác trên thị trường.”
Khả năng không thể chứng minh rõ ràng về tính xác thực của một bản ghi âm đang làm tăng độ u ám và sẽ cũng được khai thác bởi các chính trị gia xuất hiện trong bản ghi âm thực sự, thêm vào đó Gregory nói. “Các chính trị gia sẽ tuyên bố rằng âm thanh thực sự là giả mạo và gây áp lực lên các nhà kiểm chứng sự thật để phá bỏ tuyên bố này, khi họ không có công cụ hoặc khả năng nhanh chóng để làm điều này.”
