Người ta có thể đặt khuôn mặt của bạn vào video khiêu dâm—và Pháp luật không thể giúp bạn

Những phần khó chịu nhất của internet có một thủ thuật mới: Sử dụng học máy và trí tuệ nhân tạo để đặt khuôn mặt của người nổi tiếng lên các diễn viên khiêu dâm. Kết quả? Video khiêu dâm giả mạo với khuôn mặt người nổi tiếng đủ mượt mà để bị nhầm lẫn với thứ thật. Các nạn nhân sớm gồm Daisy Ridley, Gal Gadot, Scarlett Johansson và Taylor Swift. Đã được Motherboard đưa tin đầu tiên, trào lưu khó chịu này đã nấu chín trong vài tháng, có cả một subreddit riêng. Và bây giờ khi có người tạo ra một ứng dụng—đáng kể giảm ngưỡng kỹ thuật mà những người muốn sáng tạo phải vượt qua—nó có thể trở nên phổ biến hơn nhiều.
Với những lý do hiển nhiên như một cơn đau mắt, những video này—mà những người tạo ra chúng gọi là "deepfakes," theo tên của người redditor đã tạo ra quy trình này—là kinh khủng. Đó là một loại sinh tố độc hại được làm từ một số vấn đề internet tồi tệ nhất hiện nay. Đó là một vùng đất mới cho khiêu dâm không tình nguyện và tin tức giả mạo. (Video được chỉnh sửa của ứng cử viên chính trị nói những điều kỳ cục trong 3, 2...). Và tệ nhất trong tất cả? Nếu bạn sống ở Hoa Kỳ và ai đó làm điều này với khuôn mặt của bạn, pháp luật thực sự không thể giúp bạn.
Đối với nhiều người dễ tổn thương trên internet, đặc biệt là phụ nữ, điều này giống như là cuối thời đại. “Tôi chia sẻ cảm giác chết chóc của bạn,” Mary Anne Franks, giảng viên Luật Thứ Nhất và Công nghệ tại Trường Luật Đại học Miami, và cũng là cố vấn chính sách công nghệ và lập pháp cho Cyber Civil Rights Initiative. “Tôi nghĩ nó sẽ tệ đến như vậy.”
Cô nên biết. Franks đã giúp viết nhiều phần của pháp luật hiện hành tại Hoa Kỳ về việc tội phạm khiêu dâm không tình nguyện—và nó sẽ không giúp ích gì. Không phải là Franks và các nhà lập pháp không nghĩ đến những hậu quả của hình ảnh bị chỉnh sửa. Mà vấn đề là giả định của bất kỳ pháp luật hiện tại nào là khiêu dâm không tình nguyện là vi phạm quyền riêng tư. Face-swap porn có thể gây xấu hổ sâu sắc cho những người mà hình dáng của họ được sử dụng, nhưng kỹ thuật chính xác không phải là vấn đề về quyền riêng tư. Điều này là vì, khác với một bức ảnh nude bị đánh cắp từ đám mây, loại tư liệu này là giả mạo. Bạn không thể kiện ai đó vì tiết lộ những chi tiết thân mật về cuộc sống của bạn khi nó không phải là cuộc sống của bạn mà họ đang tiết lộ.
Và chính sự giả mạo liên quan đến những video này cung cấp một lớp phủ pháp lý lớn cho những người tạo ra chúng. “Nó rơi vào những kẽ hở vì mọi thứ đều ở giữa,” nói Danielle Citron, giáo sư luật tại Đại học Maryland và tác giả của Tội Phạm Ghét Bị Đối Xử trên Internet. “Có mọi loại vấn đề với Hiến pháp lần đầu tiên vì nó không phải là cơ thể thật sự của họ.” Vì pháp luật về quyền riêng tư tại Hoa Kỳ không áp dụng, việc loại bỏ những video này có thể bị coi là kiểm duyệt—sau tất cả, đây là “nghệ thuật” mà những người chơi redditors đã sáng tạo ra, ngay cả khi nó không đẹp mắt.
Trong trường hợp sau trường hợp, Hiến pháp lần đầu tiên đã bảo vệ những bản nhái và biểu tượng và bài thơ nhảm và châm biếm. (Đây là lý do khiêu dâm có một lịch sử dài về các tựa đề như Mọi Người Đều Làm Raymond và Buffy Người Hút Máu Lớp.) Theo Citron, việc tuyên bố rằng face-swap porn là châm biếm không phải là lập luận pháp lý mạnh nhất—nó rõ ràng là lợi dụng—nhưng điều đó không ngăn cản người ta làm rối nước pháp lý với nó.
Vậy bây giờ thì sao?
Điều đó có nghĩa là nạn nhân không có hy vọng nào về lối thoát pháp lý? Không hoàn toàn. Người nổi tiếng sẽ có thể kiện về việc sử dụng hình ảnh của họ một cách sai trái. Nhưng điều đó thường áp dụng cho ngữ cảnh thương mại—như, ví dụ, nếu ai đó sử dụng ảnh trên mạng xã hội của Gal Gadot để quảng cáo cho một câu lạc bộ thoát y mà không có sự đồng ý của cô—và lời nói chuyện thương mại không có bảo vệ nhiều như cá nhân công dân.
Đối với người dân thông thường, hy vọng tốt nhất của bạn là luật phản địa danh. Khi Franks nhận ra rằng luật khiêu dâm trả thù sẽ không bao gồm ngôn ngữ về hình ảnh giả, cô khuyến nghị các nhà lập pháp cập nhật các điều luật phản địa danh của họ để giải quyết vấn đề—nhưng trong nhiều trường hợp, điều đó vẫn chưa xảy ra. Và Franks cho rằng người đòi bồi thường sẽ gặp khó khăn khi chứng minh rằng người tạo ra có ý định gây căng thẳng tâm lý cho họ. Cho đến nay, những video này dường như đã được tạo ra để làm hài lòng người tạo ra hơn là làm nhục đối tượng của sự ham muốn của họ. “Cuối cùng, có người sẽ chỉ ra có bao nhiêu thanh niên có poster của Công Chúa Leia trong phòng ngủ là ước mơ tự sướng,” Franks nói. “Sự tổn thương chỉ là điều bạn phát hiện ra phải không? Pháp lý, chúng ta cần có khả năng diễn đạt điều gì là tổn thương, không chỉ làm chúng ta cảm thấy khó chịu.” Và trong một trường hợp cận lề như khiêu dâm AI, điều đó vẫn chưa xảy ra.
Đối với một giải pháp dài hạn, cách phổ biến nhất để ngăn chặn sự lây lan của face-swap porn có thể là loại bỏ công nghệ phân phối: ứng dụng đó. Đạo luật Cơ quan Thương mại Liên bang cấm “các hành vi không công bằng hoặc gian lận trong hoặc ảnh hưởng đến thương mại,” một sự phân biệt có thể trở thành điểm tấn công. “Nếu chúng ta có thể suy nghĩ về điều đó một cách sáng tạo, người tạo ứng dụng có thể chịu trách nhiệm,” Citron nói. “Ứng dụng đang sử dụng dữ liệu của một người và biến đổi nó thành dữ liệu của người khác.” (Google đã vi phạm điều khoản tương tự vào năm 2013.)
Hoa Kỳ không có các đạo luật "quyền được quên" nơi công dân tư nhân có thể đệ đơn yêu cầu loại bỏ tài liệu trực tuyến liên quan đến họ. Tuy nhiên, có những giải pháp tạm thời tồn tại. Google tuyên bố rằng họ sẽ hủy liên kết tài liệu khiêu dâm không đồng ý từ các kết quả tìm kiếm của tên nạn nhân.
Tương tự, các nền tảng trực tuyến sẽ có khả năng can thiệp và đánh bại chúng—hoặc ít nhất là đánh dấu chúng là giả mạo. “AI để phát hiện các video chỉnh sửa như vậy đã tồn tại và khá tốt. Ngoài ra, việc phát hiện khiêu dâm khá đơn giản,” nói Jen Golbeck, một nhà khoa học máy tính tại Đại học Maryland. “Vì vậy, đối với một nơi như YouTube để thực hiện điều này, họ sẽ cần kết hợp bộ phát hiện khiêu dâm mà họ chắc chắn có với bộ phát hiện video chỉnh sửa. Công nghệ không nên khó khăn.” Với việc video đến từ một số ứng dụng giới hạn, có thể sẽ có một chữ ký rõ ràng hơn để tập trung vào.
Xác minh sự chân thực của video (hoặc thiếu nó) sẽ trở nên quan trọng hơn khi công nghệ này lan rộng. Cũng như làm thế nào để đối mặt với điều gì là xúc phạm danh tiếng, tổn thương tâm lý và sự đồng ý trong ngữ cảnh kỹ thuật số. Nhưng trong khi tất cả điều đó là quan trọng, nó sẽ đòi hỏi cuộc chiến lớn để đảm bảo nó thực sự được xem xét. “Nếu chúng ta không thể đạt được điểm mà không thể nói với một sếp để đề xuất với một thư ký, làm thế nào chúng ta sẽ suy nghĩ lại điều này?” Franks nói. “Chúng ta còn rất xa khỏi cuộc trò chuyện chúng ta cần phải có.” Đối với những nạn nhân sớm này—như những nạn nhân sớm của khiêu dâm báo thù—sự quan tâm văn hóa đã đến quá muộn.