Deepfakes Không Tốt Lắm. Công Cụ Phát Hiện Cũng Không Tốt

Chúng ta may mắn vì video deepfake chưa phải là vấn đề lớn. Bộ phát hiện deepfake tốt nhất từ một nỗ lực lớn do Facebook dẫn đầu để chống lại những video bị chỉnh sửa chỉ có thể bắt được khoảng hai phần ba trong số chúng.
Trong tháng 9, khi sự lo ngại về nguy cơ của deepfake tăng lên, Facebook thách thức các chuyên gia trí tuệ nhân tạo phát triển các kỹ thuật phát hiện video deepfake. Vào tháng 1, công ty cũng cấm sử dụng deepfake để lan truyền thông tin sai lệch.
Thách Thức Phát Hiện Deepfake của Facebook, phối hợp với Microsoft, Amazon Web Services và Đối tác về Trí tuệ Nhân tạo, được thực hiện thông qua Kaggle, một nền tảng tổ chức các cuộc thi lập trình thuộc sở hữu của Google. Nó cung cấp một bộ sưu tập lớn các video đổi khuôn mặt: 100,000 đoạn video deepfake, được tạo ra bởi Facebook sử dụng các diễn viên trả tiền, trên đó các đối thủ kiểm tra thuật toán phát hiện của họ. Dự án thu hút hơn 2,000 người tham gia từ ngành công nghiệp và học thuật, và tạo ra hơn 35,000 mô hình phát hiện deepfake.
Mô hình xuất sắc nhất từ cuộc thi chỉ có thể phát hiện được deepfake từ bộ sưu tập của Facebook hơn 82% thời gian. Nhưng khi thuật toán đó được kiểm tra trước một tập hợp các deepfake chưa từng được thấy trước đó, hiệu suất của nó giảm xuống chừng hơn 65%.
“Điều này có thể giúp cho các quản trị viên con người, nhưng rõ ràng nó không gần đến mức độ chính xác cần thiết,” nói Hany Farid, một giáo sư tại Đại học California, Berkeley và là chuyên gia hàng đầu về phân tích số, người hiểu biết về dự án do Facebook dẫn đầu. “Bạn cần phải mắc phải các sai lầm với mức độ khoảng một trong một tỷ, giống như vậy.”
Deepfake sử dụng trí tuệ nhân tạo để ghép khuôn mặt của một người vào người khác, làm cho nó trở nên như người đó đã làm và nói những điều mà họ chưa bao giờ làm. Hiện tại, hầu hết deepfake đều kỳ quặc và hài hước; một vài đã xuất hiện trong các quảng cáo thông minh.
Nỗi lo lớn là deepfake có thể trở thành một công cụ mạnh mẽ và hiệu quả đặc biệt cho thông tin sai lệch chính trị, lời lẽ chủ nghĩa thù ghét hoặc quấy rối, lan truyền theo kiểu virus trên các nền tảng như Facebook. Rào cản để tạo ra deepfake rất thấp, với các chương trình đơn giản chỉ cần nhấp chuột xây dựng trên các thuật toán trí tuệ nhân tạo đã tự do sẵn có.
“Tôi khá thất vọng cá nhân với việc các nhà nghiên cứu thông minh đang dành nhiều thời gian và năng lượng để tạo ra deepfake tốt hơn,” nói Mike Schroepfer, Giám đốc Công nghệ của Facebook. Ông nói rằng thách thức nhằm mục đích khuyến khích “sự tập trung rộng rãi của ngành công nghiệp vào các công cụ và công nghệ để giúp chúng ta phát hiện những thứ này, để nếu chúng được sử dụng một cách độc hại, chúng ta có những phương pháp quy mô để chống lại chúng.”
Schroepfer coi kết quả của thách thức là ấn tượng, khi các đối thủ chỉ có vài tháng. Hiện tại, deepfake chưa phải là một vấn đề lớn, nhưng Schroepfer cho biết quan trọng là phải sẵn sàng trước khi chúng được sử dụng như một vũ khí. “Tôi muốn chuẩn bị rất kỹ lưỡng cho nhiều điều xấu xa mà chưa bao giờ xảy ra thay vì ngược lại,” Schroepfer nói.
Giải thuật đạt điểm cao nhất từ thách thức deepfake được viết bởi Selim Seferbekov, một kỹ sư máy học tại Mapbox, người đang sống tại Minsk, Belarus; anh ấy đã giành giải $500,000. Seferbekov cho biết anh ấy không đặc biệt lo lắng về deepfake, ít nhất là hiện tại.
“Hiện tại, việc sử dụng độc hại của chúng khá thấp, nếu có,” Seferbekov nói. Nhưng anh ấy nghi ngờ rằng các phương pháp học máy cải tiến có thể thay đổi điều này. “Chúng có thể ảnh hưởng đến tương lai, giống như tin tức giả mạo bằng văn bản ngày nay.” Giải thuật của Seferbekov sẽ được công bố công khai để người khác có thể sử dụng.
Việc sử dụng trí tuệ nhân tạo để bắt deepfake giống như một trò chơi cắt chuột. Một thuật toán phát hiện có thể được đào tạo để phát hiện deepfake, nhưng sau đó một thuật toán tạo ra deepfake có thể tiềm ẩn được đào tạo để tránh phát hiện. Schroepfer nói rằng điều này gây lo ngại khi phát hành mã nguồn từ dự án, nhưng Facebook kết luận rằng đó là đáng để rủi ro để thu hút thêm người tham gia vào nỗ lực.
Facebook đã sử dụng công nghệ để tự động phát hiện một số deepfake, theo Schroepfer, nhưng công ty từ chối công bố có bao nhiêu video deepfake đã bị đánh dấu như vậy. Một phần vấn đề khi tự động hóa việc phát hiện deepfake, Schroepfer nói, là một số video chỉ mang tính giải trí trong khi những video khác có thể gây hại. Nói cách khác, giống như các hình thức thông tin sai lệch khác, ngữ cảnh là quan trọng. Và đối với máy tính, điều này khó hiểu.
Việc tạo ra một bộ phát hiện deepfake thực sự hữu ích có thể khó hơn cả những gì cuộc thi thách thức, theo Farid của Đại học California, vì các kỹ thuật mới đang nhanh chóng xuất hiện, và một người làm deepfake độc hại có thể nỗ lực nhiều để lừa một bộ phát hiện cụ thể.
Farid đặt dấu hỏi về giá trị của một dự án như vậy khi Facebook dường như miễn cưỡng để kiểm soát nội dung người dùng tải lên. “Khi Mark Zuckerberg nói chúng tôi không phải là người quyết định đúng sai, tại sao chúng tôi lại làm điều này?” ông đặt câu hỏi.
Ngay cả khi chính sách của Facebook thay đổi, Farid nói rằng công ty truyền thông xã hội đang phải đối mặt với nhiều thách thức về thông tin sai lệch quan trọng hơn. “Mặc dù deepfake là một mối đe dọa mới nổi, tôi khuyến khích chúng ta không nên bị xao lạc quá bởi chúng,” Farid nói. “Chúng ta chưa cần chúng. Những thứ đơn giản vẫn hoạt động.”
- Mẹo để tận hưởng tối đa ứng dụng Signal và trò chuyện được mã hóa
- Không thể tham gia biểu tình ngoại đường? Đây là cách bạn có thể giúp đỡ từ nhà
- Đại dịch đang biến đổi nền kinh tế cho thuê
- Việc kiểm tra Covid-19 đắt đỏ. Nhưng nó không nhất thiết phải như vậy
- Công cụ bí mật của NSA để vẽ bản đồ mạng xã hội của bạn
- 👁 Liệu não bộ có phải là mô hình hữu ích cho trí tuệ nhân tạo? Ngoài ra: Đọc tin tức trí tuệ nhân tạo mới nhất
- 🎧 Âm thanh không ổn? Hãy kiểm tra tai nghe không dây, thanh âm và loa Bluetooth yêu thích của chúng tôi
