Ngay cả trí tuệ nhân tạo đằng sau Deepfakes cũng không thể cứu chúng ta khỏi sự lừa dối

Tuần trước, Google phát hành hàng nghìn video deepfake để hỗ trợ các nhà nghiên cứu xây dựng công cụ sử dụng trí tuệ nhân tạo để phát hiện video được chỉnh sửa có thể tạo ra thông tin sai lệch chính trị, phá hoại doanh nghiệp hoặc quấy rối trực tuyến.
Video của Google có thể được sử dụng để tạo ra công nghệ mang lại hy vọng bắt kịp deepfakes giống như bộ lọc rác thư điện tử bắt rác thư. Tuy nhiên, thực tế là công nghệ chỉ là một phần của giải pháp. Điều này bởi vì deepfakes có khả năng cải thiện nhanh hơn so với các phương pháp phát hiện và vì trí tuệ và chuyên môn của con người sẽ được yêu cầu để nhận diện video gian lận trong tương lai dự kiến.
Deepfakes đã thu hút sự tưởng tượng của các chính trị gia, truyền thông và công dân. Sự biến đổi và lừa dối video đã lâu, nhưng tiến bộ trong học máy đã làm cho việc tự động chụp lại hình dạng của một người và nối nó vào người khác trở nên dễ dàng. Điều này đã làm cho việc tạo ra video khiêu dâm giả mạo, sáng tạo ra các video hỗn hợp phim kỳ ảo và các bản demo chỉ ra tiềm năng cho phá hoại chính trị trở nên tương đối đơn giản.
Lo ngại ngày càng tăng rằng deepfakes có thể được sử dụng để ảnh hưởng ý kiến cử tri trong cuộc bầu cử tổng thống năm 2020. Một báo cáo được xuất bản trong tháng này bởi các nhà nghiên cứu tại Đại học New York xác định deepfakes là một trong tám yếu tố có thể đóng góp vào việc phổ biến thông tin sai lệch trong cuộc đua của năm sau. Một cuộc khảo sát gần đây về pháp luật phát hiện rằng các nhà lập pháp liên bang và bang đang nghĩ về khoảng một chục dự luật để giải quyết vấn đề deepfakes. Virginia đã làm cho việc chia sẻ deepfake khiêu dâm mà không sự đồng ý là bất hợp pháp; Texas đã cấm deepfakes làm ảnh hưởng đến bầu cử.
Các công ty công nghệ đã quảng cáo ý tưởng rằng học máy và trí tuệ nhân tạo sẽ giúp giải quyết vấn đề này, bắt đầu từ các hình thức thông tin sai lệch đơn giản. Trong lời khai của mình trước Quốc hội tháng 10 năm ngoái, Mark Zuckerberg hứa rằng trí tuệ nhân tạo sẽ giúp Facebook xác định câu chuyện tin giả mạo. Điều này sẽ liên quan đến việc sử dụng thuật toán được huấn luyện để phân biệt giữa văn bản và hình ảnh chính xác và đánh lừa trong các bài đăng.

Các đoạn video được phát hành tuần trước, được tạo ra phối hợp với Jigsaw, một công ty con của Alphabet tập trung vào công nghệ và chính trị, có sự tham gia của các diễn viên được trả tiền đã đồng ý để khuôn mặt của họ bị đổi chỗ. Ý tưởng là các nhà nghiên cứu sẽ sử dụng video để đào tạo phần mềm nhận diện video deepfake trong tự nhiên và để đánh giá hiệu suất của các công cụ của họ.
Những đoạn video cho thấy người ta đang thực hiện các công việc hằng ngày: cười hoặc cau có camera; đi dạo một cách vô hướng qua các hành lang; ôm nhau một cách ngượng ngùng. Việc đổi chỗ khuôn mặt dao động từ thuyết phục đến dễ nhận thấy. Nhiều khuôn mặt trong các đoạn video dường như không vừa, hoặc tan chảy hoặc bị lỗi một cách betray kỹ thuật số trickery.
MYTOUR tải xuống nhiều đoạn video và chia sẻ chúng với một số chuyên gia. Một số người nói rằng kỹ thuật deepfake đã tiến triển hơn những kỹ thuật được sử dụng bởi Google để tạo ra một số video.
“Khoảng một chục đoạn video mà tôi xem có những hiện tượng nổi bật mà những kỹ thuật thay đổi khuôn mặt hiện đại đã loại bỏ,” nói Hany Farid, một chuyên gia phân tích số tại Đại học California, Berkeley đang làm việc về deepfakes. “Video như thế này với các hiện tượng hình ảnh không phải là điều chúng ta nên đào tạo và kiểm tra kỹ thuật phân tích của mình. Chúng ta cần nội dung chất lượng cao đáng kể.”
Google cho biết họ đã tạo ra các video với độ chất lượng đa dạng để cải thiện việc đào tạo các thuật toán phát hiện. Henry Ajder, một nhà nghiên cứu tại công ty Anh Quốc có tên Deeptrace Lab, đang thu thập deepfakes và xây dựng công nghệ phát hiện riêng, đồng ý rằng việc có cả deepfakes tốt và kém chất lượng là hữu ích cho quá trình đào tạo. Google cũng nói trong bài đăng trên blog thông báo về bộ dữ liệu video rằng họ sẽ thêm deepfakes theo thời gian để điều chỉnh cho sự tiến bộ trong công nghệ.
Lượng công sức được đầu tư vào việc phát triển các bộ dụng cụ phát hiện deepfake có vẻ là dấu hiệu cho thấy một giải pháp đang trên đường đến. Các nhà nghiên cứu đang làm việc trên các kỹ thuật tự động để nhận diện video được tạo ra bằng tay cũng như sử dụng trí tuệ nhân tạo. Những công cụ phát hiện này ngày càng phụ thuộc, giống như chính deepfakes, vào học máy và lượng lớn dữ liệu đào tạo. Darpa, cơ quan nghiên cứu của Bộ Quốc phòng, triển khai một chương trình tài trợ cho các nhà nghiên cứu đang làm việc trên các công cụ phát hiện gian lận tự động; nó ngày càng tập trung vào deepfakes.
Sẽ sớm có thêm nhiều dữ liệu đào tạo deepfake. Facebook và Microsoft đang xây dựng một bộ dữ liệu deepfake khác, lớn hơn, mà các công ty dự định phát hành cho các nhà nghiên cứu trí tuệ nhân tạo tại một hội nghị vào tháng 12.
Sam Gregory, giám đốc chương trình cho tổ chức Witness, dự án đào tạo nhà hoạt động sử dụng bằng chứng video để phơi bày các hành vi sai trái, cho biết các video deepfake mới sẽ hữu ích đối với các nhà nghiên cứu học thuật. Nhưng ông cũng cảnh báo rằng deepfakes được chia sẻ tự nhiên luôn có khả năng khó nhận diện tự động hơn, do cách chúng có thể bị nén hoặc remix một cách có thể lừa dối ngay cả một bộ dụng cụ đã được đào tạo tốt.
Khi deepfakes được cải thiện, Gregory và những người khác cho biết sẽ cần phải có con người để điều tra nguồn gốc của video hoặc những không nhất quán - một bóng đổ không đúng hoặc thời tiết không chính xác cho một địa điểm cụ thể - mà có thể không thể nhận thức được đối với một thuật toán.
“Có một tương lai cho việc [tự động] phát hiện như một phần giải pháp,” Gregory nói. Ông tin rằng các giải pháp kỹ thuật có thể giúp thông báo cho người dùng và truyền thông về deepfakes, nhưng thêm rằng người dùng cần trở nên thông thái hơn về những khả năng mới của sự lừa dối.

Video, tất nhiên, cũng có thể được biến đổi để đánh lừa mà không cần sử dụng trí tuệ nhân tạo. Một báo cáo được xuất bản vào tháng trước bởi Data & Society, một tổ chức nghiên cứu phi lợi nhuận, lưu ý rằng sự biến đổi video đã vượt xa xa deepfakery. Những sửa đổi và chỉnh sửa đơn giản có thể cũng hiệu quả trong việc đánh lừa người ta, và khó nhận biết hơn khi sử dụng các công cụ tự động. Một ví dụ gần đây là đoạn video của Nancy Pelosi được làm chậm để tạo cảm giác như cô ấy đang nói lắp lánh.
Những điều tuyệt vời từ MYTOUR
- Công nghệ đổi mới đằng sau Gemini Man với Will Smith 'trẻ'
- Một cái nhìn độc quyền vào vi xử lý A13 bionic của Apple
- Không quân sẽ để các hacker thử đánh cắp một vệ tinh đang quay
- Những dấu vết của hoạt động con người trong không gian trống của Burning Man
- Edward Snowden nói về bản thân mình: Tại sao tôi trở thành một người tiết lộ thông tin
- 👁 Cách máy học? Đồng thời, đọc tin tức mới nhất về trí tuệ nhân tạo
- 🎧 Âm thanh không đúng? Kiểm tra tai nghe không dây, thanh âm và loa Bluetooth yêu thích của chúng tôi
