Nhiều ứng dụng đang sử dụng trí tuệ nhân tạo biến hình người khác thành trần trụi, đặc biệt chỉ áp dụng với hình ảnh hoặc video của phụ nữ, bất kể có sự đồng ý hay không.

Đây là kết quả của một nghiên cứu truyền thông xã hội về các ứng dụng sử dụng trí tuệ nhân tạo (AI) để 'lột sạch' quần áo của người trong hình và cảnh báo rằng hiện tượng này đang ngày càng phổ biến.
24 triệu lượt truy cập trong tháng vì hình ảnh trần trụi
Công ty phân tích truyền thông xã hội Graphika đã thực hiện phân tích 34 công ty cung cấp dịch vụ này.
Graphika gọi dịch vụ này là 'ảnh riêng tư không có sự đồng thuận' (NCII). Kết quả, các trang web cung cấp NCII thu hút đến 24 triệu lượt truy cập chỉ trong một tháng.
Một trong những quảng cáo của dịch vụ này có nội dung: 'Hãy tháo bỏ quần áo của bất kỳ cô gái nào bạn muốn'.
Ban đầu, ngành công nghiệp lột trần ảnh ảo gần như không tồn tại. Tuy nhiên, các mô hình khuếch tán hình ảnh AI mã nguồn mở đã đơn giản hóa quá trình chỉnh sửa ảnh, cho phép triển khai các ứng dụng và trang web NCII. Do đó, số lượng liên kết giới thiệu dịch vụ này trên Reddit và X đã tăng hơn 2.400%, tính trong năm 2022.
Nhà nghiên cứu đã chỉ ra rằng với sự hỗ trợ của các dịch vụ AI, các nhà cung cấp NCII hiện tổ chức hoạt động như một ngành công nghiệp trực tuyến chính thống.
Họ tận dụng nhiều chiến lược tiếp thị và công cụ kiếm tiền giống như các công ty thương mại điện tử đã thành công.
Điều này bao gồm quảng cáo trên các nền tảng truyền thông xã hội chính thống, tiếp thị có ảnh hưởng, triển khai chương trình giới thiệu khách hàng và sử dụng công nghệ thanh toán trực tuyến.
Chỉ cần vài thao tác đơn giản
Thực ra, việc chia sẻ ảnh khỏa thân trên mạng mà không có sự đồng ý không phải là điều mới. Năm 2018, một hacker đã bị kết án 8 tháng tù vì chia sẻ công khai những bức ảnh khỏa thân thật của nữ diễn viên Jennifer Lawrence và những người nổi tiếng khác trên Internet. Lawrence gọi vụ hack ảnh này là 'tội ác tình dục'.
Bây giờ, những bức ảnh như vậy có thể được tạo ra chỉ bằng một vài thao tác đơn giản. Và sẽ rất khó để phân biệt những hình ảnh đó là thật hay giả mạo. FBI cũng đã cảnh báo về việc tăng cường việc thao túng hình ảnh để tống tiền hoặc tạo ra nội dung không lành mạnh.
'Những kẻ xấu sử dụng các công nghệ và dịch vụ để lợi dụng ảnh và video thường được lấy từ tài khoản mạng xã hội của một cá nhân, mã nguồn mở hoặc được nạn nhân yêu cầu tạo thành những hình ảnh liên quan đến tình dục với nạn nhân, sau đó lan truyền chúng trên mạng xã hội, diễn đàn công cộng hoặc các trang web khiêu dâm' - trang web FBI cảnh báo.
Những bức ảnh này thường được sử dụng như một hình thức tống tiền, đòi tiền chuộc từ chủ thể của ảnh. Thêm vào đó, các chương trình này cũng đang được sử dụng để tạo ra ảnh khỏa thân của thanh niên.
Tháng 9 năm trước, hình ảnh khỏa thân của hơn 20 cô gái trẻ ở Tây Ban Nha đã được phát hiện.
Hầu hết các bức ảnh được tạo ra bằng cách sử dụng ảnh chụp khi các cô gái mặc đồ từ tài khoản Instagram của họ, sau đó được chỉnh sửa bằng một ứng dụng hỗ trợ AI để biến chúng thành ảnh khỏa thân, và sau đó được chia sẻ trong các nhóm WhatsApp.
Bây giờ, việc lột đồ của người nổi tiếng, bạn cùng học, người xa lạ trên xe buýt, sếp hoặc đồng nghiệp và cả trẻ em chỉ còn là vài cú nhấp chuột.
Ở Mỹ, hiện chưa có luật liên bang nào cấm tạo ra những bức ảnh này mặc dù chúng bị cấm sử dụng với trẻ vị thành niên. Đối với ảnh người lớn, những ứng dụng này và hình ảnh do chúng tạo ra vẫn được pháp luật chấp nhận.