'Nguy cơ' của hình ảnh AI không an toàn ngày càng lan rộ trên mạng. Nghiên cứu đề xuất 3 cách để kiểm soát vấn nạn này
Trong suốt năm qua, các trình tạo ảnh AI đã tạo nên cơn sốt trên toàn cầu. Thậm chí, những nhà văn lỗi lạc của chúng tôi tại TNW cũng sử dụng chúng thường xuyên.
Sự thật là, các công cụ như Stable Diffusion, Latent Diffusion hoặc DALL·E có thể rất hữu ích để tạo ra những hình ảnh độc đáo từ những yêu cầu đơn giản — như bức hình này về Elon Musk điều khiển một con kỳ lân.
Nhưng đó không phải là toàn bộ niềm vui và trò chơi. Người dùng của những mô hình AI này có thể dễ dàng tạo ra những hình ảnh chứa đầy sự căm ghét, làm mất nhân tính và khiêu dâm chỉ bằng một cú nhấp chuột — mà không gặp phải hậu quả đáng kể.
“Mọi người sử dụng các công cụ AI này để vẽ ra mọi loại hình ảnh, điều này nguy cơ inherent,” nghiên cứu viên Yiting Qu từ Trung tâm CISPA Helmholtz về An ninh Thông tin ở Đức nói. Tình hình trở nên đặc biệt phức tạp khi những hình ảnh đáng sợ hoặc rõ ràng được chia sẻ trên các nền tảng truyền thông chính thống, cô nhấn mạnh.
Mặc dù những rủi ro này dường như khá rõ ràng, nhưng cho đến nay có rất ít nghiên cứu được tiến hành để đo lường những nguy cơ này và tạo ra những biện pháp an toàn cho việc sử dụng chúng. “Hiện tại, thậm chí không có một định nghĩa chung trong cộng đồng nghiên cứu về điều gì là một hình ảnh không an toàn,” Qu nói.
Để làm sáng tỏ vấn đề, Qu và đội ngũ nghiên cứu của cô nghiên cứu các trình tạo ảnh AI phổ biến nhất, sự phổ biến của hình ảnh không an toàn trên những nền tảng này, và ba cách để ngăn chặn sự tạo ra và lan truyền chúng trực tuyến.
Các nhà nghiên cứu đã cung cấp bốn trình tạo ảnh AI nổi tiếng bằng các yêu cầu văn bản từ các nguồn nổi tiếng về nội dung không an toàn, như nền tảng cánh tả 4chan. Đáng kinh ngạc là 14.56% hình ảnh được tạo ra được phân loại là “không an toàn,” với Stable Diffusion tạo ra tỷ lệ cao nhất là 18.92%. Những hình ảnh này bao gồm nội dung tình dục, bạo lực, đáng sợ, căm ghét, hoặc nội dung chính trị.
Thiết lập biện pháp bảo vệ
Việc nhiều hình ảnh không chắc chắn được tạo ra trong nghiên cứu của Qu cho thấy rằng các bộ lọc hiện tại không làm công việc của họ một cách đủ tốt. Nghiên cứu viên đã phát triển bộ lọc riêng của mình, có tỷ lệ nhận diện cao hơn nhiều so với các bộ lọc khác, nhưng đề xuất nhiều cách khác nhau để kiểm soát mối đe doạ.
Một cách để ngăn chặn sự lan truyền của hình ảnh không nhân đạo là lập trình các trình tạo ảnh AI để không tạo ra những hình ảnh này từ đầu, cô nói. Đơn giản, nếu các mô hình AI không được đào tạo trên những hình ảnh không an toàn, chúng không thể sao chép chúng.
Hơn thế nữa, Qu khuyến nghị chặn các từ không an toàn khỏi chức năng tìm kiếm, để người dùng không thể kết hợp các yêu cầu văn bản tạo ra những hình ảnh có hại. Đối với những hình ảnh đang lan truyền, “phải có một cách để phân loại và xóa chúng trực tuyến,” cô nói.
Với tất cả những biện pháp này, thách thức là tìm sự cân bằng đúng đắn. “Cần có sự đánh đổi giữa tự do và an ninh nội dung,” nói Qu. “Nhưng khi đến việc ngăn chặn những hình ảnh này từ việc lan truyền rộng rãi trên các nền tảng chính thống, tôi nghĩ rằng quy định nghiêm ngặt là hợp lý.”
Ngoài việc tạo ra nội dung có hại, những người tạo phần mềm chuyển văn bản thành hình ảnh của AI đã bị chỉ trích vì một loạt vấn đề, chẳng hạn như đánh cắp công việc của nghệ sĩ và tăng cường các định kiến nguy hiểm về giới tính và chủng tộc.
Trong khi các sáng kiến như Hội nghị An toàn AI, diễn ra tại Anh trong tháng này, nhằm tạo ra rào cản cho công nghệ, những người phê phán cho rằng các công ty công nghệ lớn chiếm quá nhiều quyền lực trong các cuộc đàm phán. Dù đó có phải là sự thật hay không, thực tế là, ở hiện tại, quản lý AI một cách đúng đắn và an toàn chỉ là hỗn loạn ở mức tốt nhất và lo lắng tột cùng ở mức tồi.
