Discord vừa cập nhật chính sách mới nhằm bảo vệ người dùng chưa đủ tuổi vị thành niên.
Sau khi nhận được báo cáo về việc sử dụng Discord để tạo và phát tán hình ảnh lạm dụng trẻ em (CSAM) cũng như dụ dỗ thanh thiếu niên, Discord đã cập nhật chính sách để bảo vệ trẻ em và thanh thiếu niên trên nền tảng của mình.
Gần đây, theo thông tin từ The Washington Post, trí tuệ nhân tạo đang tạo ra nhiều hình ảnh lạm dụng trẻ em trên Discord thông qua MidjTHER - một AI tạo văn bản thành hình ảnh.
Ngoài việc ngăn chặn CSAM được tạo ra bởi trí tuệ nhân tạo, Discord cũng đang nghiêm cấm mọi loại nội dung văn bản hoặc hình ảnh ảnh hưởng đến người dùng trẻ tuổi. Nền tảng này cũng đã cấm các máy chủ hẹn hò dành cho trẻ em và cam kết trừng phạt những người dùng tạo ra chúng. Trước đây, Discord có một số lượng lớn máy chủ hẹn hò dành cho thanh thiếu niên.
Discord cũng được đánh giá là nơi tồn tại của các hacker xấu xa, lưu trữ nhiều bằng chứng tội phạm, và dụ dỗ các cô gái trẻ. Việc hoàn toàn ngăn chặn các máy chủ hẹn hò có thể giúp giảm bớt vấn đề này.
Ngoài việc cập nhật các quy tắc, Discord đã ra mắt công cụ Family Center, giúp phụ huynh theo dõi hoạt động của con trên dịch vụ trò chuyện.
Mặc dù phụ huynh không thể xem nội dung thực tế trong tin nhắn của con, công cụ này cho phép họ biết con kết bạn và trò chuyện với ai trên nền tảng. Discord hy vọng rằng các biện pháp và công cụ mới này cùng với các biện pháp hiện có sẽ giữ an toàn cho người dùng trẻ tuổi, bao gồm cả việc quét hình ảnh sử dụng PhotoDNA.