Nghĩ rằng deepfakes không thể đánh lừa bạn? Xin lỗi, bạn đã lầm
Đầu tháng Ba, một đoạn video được chỉnh sửa của Tổng thống Ukraine Volodymyr Zelenskyy đã lan truyền. Trong đó, một phiên bản số hóa của Zelenskyy bảo quân đội quốc gia Ukraine đầu hàng. Video được lan truyền trực tuyến nhưng nhanh chóng bị xác minh là deepfake — một video siêu thực tế nhưng giả mạo được sản xuất bằng trí tuệ nhân tạo.
Trong khi thông tin sai lệch của Nga có vẻ không có ảnh hưởng lớn, ví dụ lo lắng này đã làm rõ tiềm ẩn của deepfakes.
Tuy nhiên, deepfakes đang được sử dụng thành công trong công nghệ hỗ trợ. Ví dụ, những người mắc bệnh Parkinson có thể sử dụng sao chép giọng nói để giao tiếp.
Deepfakes được sử dụng trong giáo dục: Công ty tổng hợp giọng CereProc có trụ sở tại Ireland đã tạo ra một giọng tổng hợp cho John F. Kennedy, đưa ông trở lại để thực hiện bài phát biểu lịch sử của mình.
Tuy nhiên, mỗi đồng xu đều có hai mặt. Deepfakes có thể siêu thực tế, và thực sự khó detect bởi mắt người.
Do đó, cùng công nghệ sao chép giọng nói, deepfakes có thể được sử dụng cho lừa đảo, phỉ báng và tống tiền. Khi deepfakes được triển khai một cách có chủ đích để định hình ý kiến cộng đồng, kích động xung đột xã hội và thao túng cuộc bầu cử, chúng có tiềm năng làm suy yếu chế độ dân chủ.
Gây ra hỗn loạn
Deepfakes dựa trên một công nghệ được biết đến là mạng tạo đối kháng sinh sản, trong đó hai thuật toán huấn luyện lẫn nhau để tạo ra hình ảnh.
Mặc dù công nghệ đằng sau deepfakes có vẻ phức tạp, nhưng việc tạo ra một cái không khó chút nào. Có nhiều ứng dụng trực tuyến như Faceswap và ZAO Deepswap có thể tạo ra deepfakes trong vài phút.
Google Colaboratory — một kho lưu trữ trực tuyến cho mã nguồn trong nhiều ngôn ngữ lập trình — bao gồm các ví dụ về mã nguồn mà có thể được sử dụng để tạo ra hình ảnh và video giả mạo. Với phần mềm này dễ tiếp cận, dễ thấy là người dùng bình thường có thể gây ra hỗn loạn với deepfakes mà không nhận ra rủi ro bảo mật tiềm ẩn.
Sự phổ biến của ứng dụng đổi khuôn mặt và các dịch vụ trực tuyến như Deep Nostalgia cho thấy deepfakes có thể nhanh chóng và rộng rãi được chấp nhận bởi công chúng. Năm 2019, khoảng 15,000 video sử dụng deepfakes đã được phát hiện. Và số này dự kiến sẽ tăng lên.
Deepfakes là công cụ hoàn hảo cho các chiến dịch thông tin sai lệch vì chúng tạo ra tin tức giả mạo đáng tin cậy mà cần thời gian để bác bỏ. Trong khi đó, những tổn thất do deepfakes gây ra — đặc biệt là những tổn thất ảnh hưởng đến danh tiếng của người — thường kéo dài và không thể đảo ngược.
Thấy là tin, tin là thật?
Có lẽ hậu quả nguy hiểm nhất của deepfakes là cách chúng dễ dàng tự làm nguyên liệu cho thông tin sai lệch trong các chiến dịch chính trị.
Chúng ta đã thấy điều này khi Donald Trump gọi mọi bản tin không mỹ miềm là “tin giả mạo.” Bằng cách buộc tội các đối thủ của mình phổ biến tin giả mạo, Trump có thể sử dụng thông tin sai lệch để biện hộ cho những hành động sai trái và làm công cụ tuyên truyền.
Chiến lược của Trump cho phép ông duy trì sự ủng hộ trong một môi trường đầy nghi ngờ và thông tin sai lệch bằng cách tuyên bố “rằng sự kiện và câu chuyện thật là tin giả mạo hoặc deepfakes.”
Sự đáng tin cậy trong các cơ quan và phương tiện truyền thông đang bị suy giảm, tạo ra một bầu không khí không tin tưởng. Với sự gia tăng đáng kể của deepfakes, các chính trị gia có thể dễ dàng từ chối trách nhiệm trong bất kỳ vụ scandal nào mới nổi lên. Làm thế nào có thể xác nhận danh tính của ai đó trong một video nếu họ phủ nhận?
Tuy nhiên, việc chống lại thông tin sai lệch luôn là một thách thức đối với các chế độ dân chủ khi họ cố gắng bảo vệ tự do ngôn luận. Hợp tác giữa con người và trí tuệ nhân tạo có thể giúp giải quyết nguy cơ ngày càng cao từ deepfakes bằng cách có người xác minh thông tin. Việc đưa ra luật mới hoặc áp dụng các luật hiện hành để trừng phạt những người sản xuất deepfakes vì làm giả thông tin và mạo danh người khác cũng có thể được xem xét.

Bài viết của Sze-Fung Lee, Trợ lý Nghiên cứu, Bộ môn Nghiên cứu Thông tin, Đại học McGill và Benjamin C. M. Fung, Giáo sư và Chủ tịch Nghiên cứu Canada về Đào tạo Dữ liệu cho An ninh mạng, Đại học McGill
Bài viết này được tái bản từ The Conversation theo giấy phép Creative Commons. Đọc bài viết gốc.
