Đồng tính giả mạo đang hoành hành

Công nghệ của Google và Microsoft đang gặp vấn đề với những video đồng tính giả mạo. Kể từ khi đồng tính giả xuất hiện nửa thập kỷ trước, công nghệ này liên tục được sử dụng để lạm dụng và quấy rối phụ nữ—sử dụng học máy để biến đổi đầu của ai đó thành nội dung khiêu dâm mà họ không cho phép. Hiện nay, số lượng video đồng tính giả mạo không tình nguyện đang tăng với tốc độ mũi nhọn, được kích thích bởi sự tiến bộ của công nghệ AI và sự mở rộng của hệ sinh thái đồng tính giả mạo.
Một phân tích mới về các video đồng tính giả mạo không tình nguyện, được thực hiện bởi một nghiên cứu viên độc lập và chia sẻ với MYTOUR, cho thấy tình trạng lan truyền của các video này đã trở nên rộng lớn. Ít nhất 244,625 video đã được tải lên 35 trang web hàng đầu được thiết lập hoặc một phần để chứa các video đồng tính giả mạo trong bảy năm qua, theo nghiên cứu viên, người yêu cầu giữ bí mật để tránh bị nhắm đến trực tuyến.
Trong 9 tháng đầu năm nay, đã có 113,000 video được tải lên các trang web—tăng 54% so với 73,000 video được tải lên trong cả năm 2022. Đến cuối năm nay, dự báo phân tích, sẽ có nhiều video được sản xuất hơn trong năm 2023 so với tổng số của mọi năm khác cộng lại.
Những con số đáng kinh ngạc này chỉ là một bức tranh tổng quan về quy mô lớn của vấn đề đồng tính giả mạo không tình nguyện—phạm vi thực tế của vấn đề này lớn hơn nhiều và bao gồm các loại hình ảnh được điều chỉnh khác. Một ngành công nghiệp toàn bộ về lạm dụng đồng tính giả, chủ yếu nhắm vào phụ nữ và được sản xuất mà không có sự đồng ý hoặc sự nhận thức của mọi người, đã xuất hiện trong những năm gần đây. Ứng dụng đổi khuôn mặt hoạt động trên ảnh tĩnh và ứng dụng nơi quần áo có thể “bị cởi trần khỏi người” trong một bức ảnh chỉ với vài cú nhấp chuột cũng rất nổi bật. Có lẽ có hàng triệu ảnh được tạo ra với những ứng dụng này.
“Điều này là điều gì đó nhắm vào mọi người hàng ngày, học sinh trung học hàng ngày, người lớn hàng ngày—đó đã trở thành một sự kiện hàng ngày,” nói Sophie Maddocks, người nghiên cứu về quyền số và bạo lực tình dục trực tuyến tại Đại học Pennsylvania. “Sẽ tạo ra nhiều sự khác biệt nếu chúng ta có thể làm cho các công nghệ này khó tiếp cận hơn. Không nên mất hai giây để có khả năng kích thích một tội ác tình dục.”
Nghiên cứu mới đặt ra 35 trang web khác nhau, chúng tồn tại để độc quyền chứa video khiêu dâm giả mạo sâu hoặc tích hợp video cùng với nội dung người lớn khác. (Nó không bao gồm video được đăng trên mạng xã hội, những video được chia sẻ riêng tư hoặc ảnh được chỉnh sửa.) MYTOUR không đặt tên hoặc liên kết trực tiếp đến các trang web, để không làm tăng thêm khả năng nhìn thấy của chúng. Nghiên cứu viên đã cào trang web để phân tích số lượng và thời lượng video giả mạo sâu, và họ xem xét cách mọi người tìm thấy các trang web bằng dịch vụ phân tích SimilarWeb.
Nhiều trang web cho thấy rõ rằng họ chứa hoặc lan truyền video khiêu dâm giả mạo sâu—thường là có từ deepfakes hoặc từ tương d derivatives ng nó trong tên của họ. Hai trang web hàng đầu chứa 44.000 video mỗi trang, trong khi năm trang khác chứa hơn 10.000 video giả mạo sâu. Hầu hết chúng có vài nghìn video, trong khi một số chỉ liệt kê vài trăm. Một số video mà nghiên cứu viên phân tích đã được xem hàng triệu lần.
Nghiên cứu cũng xác định thêm 300 trang web khiêu dâm chung chứa video khiêu dâm giả mạo không tình nguyện theo một cách nào đó. Nghiên cứu viên nói rằng các trang web “rò rỉ” và các trang web tồn tại để đăng lại ảnh của mọi người trên mạng xã hội cũng đang tích hợp hình ảnh giả mạo sâu. Một trang web chuyên về ảnh cho biết nó đã “trần trụi” người trong 350.000 bức ảnh.
Việc đo lường quy mô đầy đủ của video và hình ảnh giả mạo sâu trực tuyến là vô cùng khó khăn. Theo dõi nơi nội dung được chia sẻ trên mạng xã hội là thách thức, trong khi nội dung lạm dụng cũng được chia sẻ trong các nhóm nhắn tin riêng tư hoặc các kênh đóng cửa, thường do những người quen biết của nạn nhân. Vào tháng 9, hơn 20 cô gái từ 11 đến 17 tuổi đã lên tiếng ở thị trấn Almendralejo của Tây Ban Nha sau khi công cụ AI đã được sử dụng để tạo ra ảnh khỏa thân của họ mà họ không hề hay biết.
“Có sự tăng trưởng đáng kể trong việc cung cấp các công cụ AI để tạo ra hình ảnh khiêu dâm giả mạo không đồng thuận, và có một sự gia tăng về nhu cầu cho loại nội dung này trên các nền tảng khiêu dâm và mạng trực tuyến bất hợp pháp,” nói Asher Flynn, giáo sư bổ trợ tại Đại học Monash, Úc, chuyên về AI và lạm dụng công nghệ. Điều này chỉ có thể tăng lên với các công cụ AI tạo mới.
Cổng vào của nhiều trang web và công cụ tạo video hoặc hình ảnh giả mạo sâu thường thông qua tìm kiếm. Triệu người được chuyển hướng đến các trang web được nghiên cứu, với 50 đến 80 phần trăm người tìm đường đến các trang web qua tìm kiếm. Tìm kiếm video giả mạo sâu thông qua tìm kiếm là chuyện nhẹ nhàng và không đòi hỏi người ta phải có bất kỳ kiến thức đặc biệt nào về việc tìm kiếm.
Vấn đề là toàn cầu. Sử dụng VPN, nghiên cứu viên đã kiểm tra tìm kiếm Google ở Canada, Đức, Nhật Bản, Hoa Kỳ, Brazil, Nam Phi và Úc. Trong tất cả các bài kiểm tra, trang web giả mạo sâu được hiển thị nổi bật trong kết quả tìm kiếm. Người nổi tiếng, người truyền hình và người tạo nội dung thường là mục tiêu trong các video. Maddocks nói rằng sự lan truyền của giả mạo sâu đã trở thành “dịch chủng” và là điều mà nhiều nghiên cứu viên đầu tiên lo ngại khi video giả mạo sâu đầu tiên trở nên nổi bật vào tháng 12 năm 2017.
Kể từ khi xuất hiện các công cụ cần thiết để tạo video giả mạo sâu, chúng trở nên dễ sử dụng hơn và chất lượng video được tạo ra đã cải thiện. Đợt công cụ tạo ảnh cũng mang lại tiềm năng cho các hình ảnh lạm dụng chất lượng cao hơn và cuối cùng là video. Và năm sau khi video giả mạo sâu đầu tiên bắt đầu xuất hiện, những đạo luật đầu tiên chỉ mới bắt đầu hình thành để xử lý việc chia sẻ hình ảnh giả mạo.
Sự lan tràn của những ứng dụng giả mạo sâu này kết hợp với sự phụ thuộc nhiều hơn vào giao tiếp kỹ thuật số trong thời đại Covid-19 và một “thất bại của luật và chính sách để theo kịp” đã tạo ra một “cơn bão hoàn hảo,” Flynn nói.
Chuyên gia cho biết cùng với các đạo luật mới, cần có sự cải thiện về giáo dục về các công nghệ, cũng như các biện pháp để ngăn chặn sự lan truyền của các công cụ được tạo ra để gây hại. Điều này bao gồm hành động của các công ty lưu trữ trang web và cả các công cụ tìm kiếm, bao gồm Google và Bing của Microsoft. Hiện tại, các khiếu nại theo Digital Millennium Copyright Act (DMCA) là cơ chế pháp lý chính mà phụ nữ có để loại bỏ video khỏi các trang web.
Henry Ajder, một chuyên gia về giả mạo sâu và AI sáng tạo đã theo dõi sự lan truyền của các công nghệ, nói thêm “sự ma sát” vào quá trình tìm kiếm video khiêu dâm giả mạo sâu, ứng dụng để thay đổi khuôn mặt người khác, và các công cụ cho phép cụ thể tạo ra hình ảnh không đồng thuận có thể giảm sự lan truyền. “Đó là cố gắng làm cho nó khó khăn nhất có thể cho ai đó tìm thấy,” anh ấy nói. Điều này có thể là việc giảm điểm cho kết quả tìm kiếm của các trang web có hại hoặc các nhà cung cấp dịch vụ Internet chặn trang web, anh ấy nói thêm. “Khó có thể cảm thấy thực sự lạc quan, khi có số lượng và quy mô của những hoạt động này, và nhu cầu của các nền tảng—mà lịch sử đến nay họ không hề nghiêm túc với những vấn đề này—đột ngột phải làm như vậy,” Ajder nói.
“Như mọi công cụ tìm kiếm khác, Google lập chỉ mục nội dung tồn tại trên web, nhưng chúng tôi tích cực thiết kế hệ thống xếp hạng để tránh làm sốc cho người dùng với nội dung có hại hoặc rõ ràng mà họ không muốn thấy,” nói Người phát ngôn Google Ned Adriance, chỉ đến trang của họ về khi nó loại bỏ kết quả tìm kiếm. Trang hỗ trợ của Google nói rằng người ta có thể yêu cầu loại bỏ “pornography giả mạo không tình nguyện”. Mẫu loại bỏ yêu cầu người ta phải tự động gửi URL và các từ khóa tìm kiếm đã được sử dụng để tìm thấy nội dung. “Khi không gian này phát triển, chúng tôi đang tích cực làm việc để thêm nhiều biện pháp bảo vệ hơn để giúp bảo vệ người dùng, dựa trên hệ thống chúng tôi đã xây dựng cho các loại hình hình ảnh rõ ràng không đồng thuận khác,” Adriance nói.
Courtney Gregoire, quan chức an toàn kỹ thuật số chính của Microsoft, nói rằng họ không cho phép deepfakes và chúng có thể được báo cáo thông qua các biểu mẫu web của họ. “Phân phối hình ảnh gần gũi không tình nguyện (NCII) là một sự vi phạm nghiêm trọng đối với quyền riêng tư và phẩm giá cá nhân với tác động tàn khốc đối với nạn nhân,” Gregoire nói. “Microsoft cấm NCII trên các nền tảng và dịch vụ của chúng tôi, bao gồm việc kêu gọi NCII hoặc ủng hộ việc sản xuất hoặc phân phối hình ảnh gần gũi mà không có sự đồng thuận của nạn nhân.”
Trong khi số lượng video và hình ảnh tiếp tục tăng vọt, tác động lâu dài đối với nạn nhân có thể kéo dài. “Bạo lực trực tuyến dựa trên giới tính đang tạo ra một ảnh hưởng lớn đối với tự do ngôn luận cho phụ nữ,” Maddocks nói. Như MYTOUR đã đưa tin, nữ streamer Twitch bị nhắm đến bởi deepfakes đã mô tả cảm giác bị xâm phạm, phải đối mặt với nhiều hành vi quấy rối hơn và mất thời gian, và một số người nói rằng nội dung không đồng thuận đã đến với thành viên gia đình.
Flynn, giáo sư Đại học Monash, nói rằng nghiên cứu của cô đã phát hiện ra “tỷ lệ cao” về các vấn đề về sức khỏe tâm thần—như lo âu, trầm cảm, tự tử—do lạm dụng số hóa. “Ảnh hưởng tiềm ẩn đối với tâm lý và thể chất của một người, cũng như ảnh hưởng đến công việc, gia đình và cuộc sống xã hội của họ có thể là không lường trước,” Flynn nói, “bất kể hình ảnh đó là giả mạo sâu hay ‘thật.’”
