Cơ sở dữ liệu lớn dùng để huấn luyện AI đã phát hiện có hơn 3.200 hình ảnh liên quan đến việc lạm dụng tình dục trẻ em.

Buzz

Các câu hỏi thường gặp

1.

Cơ sở dữ liệu LAION-5B có liên quan đến vấn đề lạm dụng trẻ em không?

Có, cơ sở dữ liệu LAION-5B chứa hơn 3.200 hình ảnh nghi ngờ liên quan đến lạm dụng trẻ em. Hơn 1.000 hình ảnh trong số đó đã được xác nhận là có liên quan đến lạm dụng tình dục trẻ em.
2.

Các công cụ AI như Stable Diffusion có nguy cơ tạo ra nội dung lạm dụng trẻ em không?

Có, các công cụ AI như Stable Diffusion có khả năng tạo ra nội dung liên quan đến lạm dụng trẻ em, do việc sử dụng hình ảnh không phù hợp trong cơ sở dữ liệu huấn luyện.
3.

Tổ chức nào đã cảnh báo về việc lạm dụng công nghệ AI trong việc tạo ra hình ảnh không phù hợp?

Tổ chức Theo dõi Internet (IWF) đã cảnh báo về việc các công cụ AI có thể bị lạm dụng để tạo ra hình ảnh liên quan đến tình dục trẻ em và lưu hành rộng rãi trên web đen.
4.

Stable Diffusion có các biện pháp kiểm soát nội dung khiêu dâm không?

Có, Stable Diffusion 2.0 đã được phát triển với các biện pháp kiểm soát nghiêm ngặt hơn đối với nội dung khiêu dâm, tuy nhiên, phiên bản cũ hơn vẫn còn tồn tại trên internet.