Trí tuệ nhân tạo lớn sẽ không ngăn chặn Deepfakes Bầu cử với Dấu Nước

Vào tháng 5, một hình ảnh giả mạo về một vụ nổ gần Bảo tàng Quốc phòng đã lan truyền trên Twitter. Ngay sau đó, là những hình ảnh dường như cho thấy vụ nổ gần Nhà Trắng. Chuyên gia về thông tin sai lệch nhanh chóng chỉ ra rằng những hình ảnh có vẻ đã được tạo ra bằng trí tuệ nhân tạo, nhưng không trước khi thị trường chứng khoán đã bắt đầu giảm giá.
Đó chỉ là một ví dụ mới nhất về cách nội dung giả mạo có thể gây ảnh hưởng tiêu cực trong thế giới thực. Sự bùng nổ của trí tuệ nhân tạo sáng tạo có nghĩa là các công cụ để tạo ra hình ảnh và video giả mạo, và sản xuất lượng lớn văn bản thuyết phục, bây giờ đã có sẵn một cách tự do. Các chuyên gia về thông tin sai lệch nói rằng chúng ta đang bước vào một kỷ nguyên mới, nơi phân biệt điều gì là thực và điều gì không sẽ trở nên ngày càng khó khăn.
Tuần trước, các công ty trí tuệ nhân tạo lớn, bao gồm OpenAI, Google, Microsoft và Amazon, đã hứa với chính phủ Mỹ rằng họ sẽ cố gắng giảm thiểu những tổn thất có thể được gây ra bởi công nghệ của họ. Nhưng khó có thể ngăn chặn đợt sóng sắp tới của nội dung được tạo ra bởi trí tuệ nhân tạo và sự nhầm lẫn mà nó có thể mang lại.
Nhà Trắng cho biết "cam kết tự nguyện" của các công ty bao gồm "phát triển các cơ chế kỹ thuật mạnh mẽ để đảm bảo người dùng biết khi nào nội dung được tạo ra bởi trí tuệ nhân tạo, như một hệ thống đóng dấu nước," là một phần của nỗ lực để ngăn chặn trí tuệ nhân tạo từ việc được sử dụng cho "lừa đảo và gạt gẫm."
Tuy nhiên, các chuyên gia nói chuyện với MYTOUR cho rằng những cam kết này chỉ là nửa bước. “Sẽ không có một câu trả lời đơn giản có hoặc không về việc có phải là do trí tuệ nhân tạo tạo ra hay không, ngay cả với những dấu nước," nói Sam Gregory, giám đốc chương trình tại tổ chức phi lợi nhuận Witness, giúp người dùng sử dụng công nghệ để thúc đẩy quyền con người.
Việc đóng dấu nước thường được sử dụng bởi các hãng ảnh và các dịch vụ tin tức để ngăn chặn việc sử dụng hình ảnh mà không có sự cho phép—và thanh toán.
Nhưng khi đến với loại nội dung đa dạng mà trí tuệ nhân tạo có thể tạo ra, và nhiều mô hình đã tồn tại, mọi thứ trở nên phức tạp hơn. Hiện chưa có một tiêu chuẩn cho việc đóng dấu nước, có nghĩa là mỗi công ty đang sử dụng một phương pháp khác nhau. Dall-E, ví dụ, sử dụng một dấu nước có thể nhìn thấy (và một tìm kiếm nhanh trên Google sẽ tìm thấy nhiều hướng dẫn về cách loại bỏ nó), trong khi các dịch vụ khác có thể mặc định là siêu dữ liệu, hoặc dấu nước ở cấp độ pixel không nhìn thấy được cho người dùng. Trong khi một số phương pháp này có thể khó hoặc không thể hoàn tác, những phương pháp khác, như dấu nước hình ảnh, đôi khi trở nên không hiệu quả khi một hình ảnh được điều chỉnh kích thước.
“Sẽ có những cách mà bạn có thể làm hỏng các dấu nước,” Gregory nói.
Tuyên bố của Nhà Trắng đặc biệt đề cập đến việc sử dụng dấu nước cho nội dung âm thanh và hình ảnh được tạo ra bởi trí tuệ nhân tạo, nhưng không đề cập đến văn bản.
Có cách để đặt dấu nước cho văn bản được tạo ra bởi các công cụ như ChatGPT của OpenAI, bằng cách thay đổi cách từ ngữ được phân phối, khiến cho một từ hoặc nhóm từ nào đó xuất hiện thường xuyên hơn. Những điều này có thể được phát hiện bởi máy móc nhưng không nhất thiết là người sử dụng.
Điều đó có nghĩa là cần phải giải thích dấu nước bằng một máy móc và sau đó thông báo cho người xem hoặc độc giả. Điều này trở nên phức tạp hơn với nội dung đa phương tiện kết hợp—như âm thanh, hình ảnh, video và văn bản có thể xuất hiện trong một video TikTok duy nhất. Ví dụ, ai đó có thể đặt âm thanh thực sự lên trên một hình ảnh hoặc video đã được chỉnh sửa. Trong trường hợp này, các nền tảng cần phải tìm cách đánh dấu rằng một phần—nhưng không phải tất cả—của đoạn clip đã được tạo ra bởi trí tuệ nhân tạo.
Và việc chỉ đơn giản đánh dấu nội dung là được tạo ra bởi trí tuệ nhân tạo không giúp người dùng xác định xem một cái gì đó có tính độc hại, đánh lừa, hay chỉ mang tính giải trí.
“Rõ ràng, nội dung bị chỉnh sửa không phải là điều xấu nếu bạn đang tạo video TikTok và chúng được thiết kế để vui nhộn và giải trí,” nói Hany Farid, một giáo sư tại Trường Thông tin Đại học California, Berkeley, người đã làm việc với công ty phần mềm Adobe trong dự án xác thực nội dung của nó. “Ngữ cảnh sẽ thực sự quan trọng ở đây. Điều này sẽ tiếp tục là một vấn đề cực kỳ khó khăn, nhưng các nền tảng đã đối mặt với những vấn đề này trong 20 năm qua.”
Và vị trí ngày càng cao của trí tuệ nhân tạo trong ý thức cộng đồng đã tạo điều kiện cho một hình thức khác của việc thao túng phương tiện. Giống như người dùng có thể giả định rằng nội dung được tạo ra bởi trí tuệ nhân tạo là thực tế, sự tồn tại của nội dung tổng hợp có thể gieo rắc nghi ngờ về tính xác thực của bất kỳ video, hình ảnh hoặc đoạn văn, tạo điều kiện cho những hành động xấu tuyên bố rằng thậm chí nội dung thực sự cũng là giả mạo—được gọi là “lợi nhuận của kẻ nói dối.” Gregory nói rằng hầu hết các trường hợp gần đây mà Witness đã thấy không phải là deepfakes được sử dụng để lan truyền những điều sai lệch; đó là những người cố gắng làm cho nội dung truyền thông thực tế trở thành nội dung được tạo ra bởi trí tuệ nhân tạo.
Tháng 4, một nghị sĩ ở bang miền nam Ấn Độ tố cáo rằng một bản ghi âm bị rò rỉ trong đó ông buộc tội đảng của mình đã lấy cắp hơn 3 tỷ đô la là “được tạo ra bởi máy móc.” (Đó không phải là sự thật.) Năm 2021, trong những tuần sau cuộc đảo chính quân sự tại Miến Điện, một video của một người phụ nữ tập thể dục trong khi một đoàn quân đổ bộ sau lưng cô đã trở nên phổ biến. Nhiều người trực tuyến đã cho rằng video đã được tạo giả. (Nó không phải.)
Hiện tại, không có gì ngăn chặn một bên hành động độc hại từ việc đặt dấu nước lên nội dung thực để làm cho nó trông giống như giả mạo. Farid nói rằng một trong những cách tốt nhất để ngăn chặn việc làm giả mạo hoặc làm hỏng dấu nước là thông qua chữ ký mật mã. “Nếu bạn là OpenAI, bạn nên có một khóa mật mã. Và dấu nước sẽ chứa thông tin chỉ có thể biết đến bởi người nắm giữ khóa,” ông nói. Những dấu nước khác có thể ở cấp độ pixel hoặc thậm chí trong dữ liệu đào tạo mà trí tuệ nhân tạo học từ đó. Farid chỉ đến Liên minh cho Nội dung, Xuất xứ và Tính xác thực, mà ông tư vấn, là một tiêu chuẩn mà các công ty trí tuệ nhân tạo có thể áp dụng và tuân thủ.
“Chúng ta đang nhanh chóng bước vào thời kỳ mà việc tin vào bất cứ điều gì chúng ta đọc, nhìn thấy, hoặc nghe thấy trực tuyến đều ngày càng khó khăn,” Farid nói. “Và điều đó có nghĩa không chỉ chúng ta sẽ bị đánh lừa bởi những thứ giả mạo, mà chúng ta sẽ không tin vào những điều thực tế. Nếu băng ghi âm Truy cập Hollywood của Trump được phát hành ngày nay, ông có thể phủ nhận có vẻ hợp lý,” Farid nói.
