Những ứng dụng này đã được quảng cáo trên Instagram để thu hút người dùng bằng các khẩu hiệu như 'miễn phí để cởi đồ cho mọi cô gái' và 'xóa mọi trang phục'.
Apple đã gỡ bỏ ba ứng dụng AI từ App Store sau khi cuộc điều tra của 404 Media phát hiện rằng các ứng dụng này có khả năng tạo ra hình ảnh deepfake khỏa thân.
Cuộc điều tra tiết lộ rằng các nhà phát triển đã quảng cáo những ứng dụng này trên Instagram bằng cách sử dụng các khẩu hiệu như 'miễn phí để cởi đồ cho bất kỳ cô gái nào' và 'xóa mọi trang phục'. Điều này đã gây ra mối lo ngại về việc lạm dụng công nghệ deepfake để tạo ra nội dung khiêu dâm mà không có sự đồng ý của những người trong hình ảnh.
Sự phổ biến của hình ảnh và video deepfake khiêu dâm, đặc biệt là các hình ảnh giả của nhân vật nổi tiếng như Taylor Swift và nghị sĩ Hạ viện Alexandria Ocasio-Cortez, đã thu hút sự chú ý và gây ra sự phản đối mạnh mẽ. Để đối phó với vấn đề này, nghị sĩ Ocasio-Cortez đã đề xuất Đạo luật DEFIANCE, nhằm cung cấp biện pháp pháp lý cho các nạn nhân của hình ảnh deepfake khiêu dâm.
Vấn đề deepfake không chỉ giới hạn ở App Store mà còn lan rộng trên các nền tảng khác như X và Meta. Đặc biệt là Meta đang gặp phải nhiều chỉ trích vì thiếu trách nhiệm trong việc thực thi chính sách của mình đối với các tác phẩm giả mạo. Bên cạnh đó, Vương quốc Anh cũng đã bắt đầu hành động, với Bộ Tư pháp nước này công bố kế hoạch làm cho việc tạo ra nội dung khiêu dâm deepfake trở thành hành vi bất hợp pháp.