Nền tảng video ngắn này thừa nhận rằng trước đây, TikTok đã thực hiện kiểm duyệt theo phạm vi lớn để loại bỏ nhiều nội dung vi phạm nhất có thể. Phương pháp này có hiệu quả trong việc gỡ bỏ nhiều video, nhưng không đảm bảo được đo lường các mục tiêu về an toàn.

Mới đây, TikTok Việt Nam đã có phản hồi chính thức về các câu hỏi liên quan đến an toàn nội dung trên nền tảng và thông báo cải tiến cách thức kiểm duyệt nội dung.
Theo báo cáo thực thi Tiêu chuẩn Cộng đồng của Quý 4, 2022 được TikTok Việt Nam công bố vào ngày 31/3/2023, hơn 1,7 triệu video đã bị xoá, trong đó tỷ lệ xoá chủ động chiếm 94,9%.
- Công nghệ kiểm duyệt tự động: Công nghệ này giúp xác định nội dung vi phạm Tiêu chuẩn Cộng đồng dựa trên nhiều tiêu chí như nội dung, từ khóa, hình ảnh, tiêu đề, mô tả và âm thanh.
- Đội ngũ kiểm duyệt nội dung: Đội ngũ này làm việc liên tục 24/7 để kiểm duyệt nội dung và cam kết sẽ tiếp tục phát triển. TikTok cũng đào tạo đội ngũ này để tăng cường hiệu quả thực thi các quy tắc mới.
- Xem xét báo cáo từ cộng đồng: TikTok cung cấp công cụ báo cáo trực tuyến giúp người dùng gắn cờ nội dung vi phạm. Tuy nhiên, phần lớn nội dung vi phạm đã được nền tảng xác định trước khi có bất kỳ báo cáo nào từ cộng đồng.

Nền tảng này cũng tuyên bố không chấp nhận chia sẻ nội dung mô tả, khích lệ, hoặc khen ngợi các hành động nguy hiểm dẫn đến thương tích nghiêm trọng hoặc tử vong.
Đối với các tài khoản từ 13 đến 16 tuổi, TikTok tự động cài đặt cấu hình bảo mật cho các chức năng quan trọng như: tin nhắn trực tiếp, quyết định ai có thể bình luận dưới video, quyết định đối tượng được tải video, quyết định ai có thể xem video. Đặc biệt, tính năng Duet và Stitch chỉ sẵn có cho người dùng từ 16 tuổi trở lên. Ngoài ra, TikTok đã phát triển tính năng Family Pairing - Gia đình thông minh, cho phép cha mẹ kết nối tài khoản và quản lý hoạt động của con trên nền tảng.
TikTok Việt Nam cũng thông báo về các cập nhật mới nhằm nâng cao độ chính xác và hiệu quả của việc kiểm duyệt nội dung.
- Ưu tiên gỡ bỏ ngay lập tức các nội dung nghiêm trọng như lạm dụng tình dục trẻ em (CSAM) và bạo lực cực đoan. - Giảm thiểu tổng lượt xem của các nội dung vi phạm Tiêu chuẩn Cộng đồng. - Đảm bảo sự chính xác, nhất quán và công bằng cho các nhà sáng tạo nội dung.
Để đạt được mục tiêu này, TikTok tăng cường sự liên kết giữa công nghệ kiểm duyệt tự động và đội ngũ kiểm duyệt chuyên môn để đưa ra các quyết định chính xác về nội dung nhạy cảm như tin giả, nội dung thù địch và quấy rối.
Nền tảng video ngắn này thừa nhận rằng trước đây, TikTok đã thực hiện kiểm duyệt theo phạm vi lớn để loại bỏ nhiều nội dung vi phạm. Phương pháp này có hiệu quả trong việc gỡ bỏ nhiều video, tuy nhiên không đảm bảo việc đo lường các mục tiêu an toàn như chú trọng vào các nội dung nghiêm trọng, giảm thiểu lượt xem và đảm bảo sự nhất quán và chính xác trong mọi quyết định. Gần đây, TikTok đã bắt đầu cải tiến phương thức tiếp cận để ưu tiên sự chính xác, giảm thiểu lượt xem của nội dung vi phạm và nhanh chóng xóa bỏ các nội dung nghiêm trọng trên nền tảng.
Trước đó, trong cuộc họp thông thường của Bộ TT-TT vào chiều 6/4, ông Lê Quang Tự Do, Cục trưởng Cục Phát thanh, Truyền hình - Thông tin điện tử (Bộ TT-TT), đã nêu rõ 6 vi phạm của mạng xã hội TikTok tại Việt Nam.
Không có biện pháp kiểm soát hiệu quả những nội dung vi phạm về chính trị, phản động chống Đảng và Nhà nước, tin giả, nội dung không ý nghĩa, độc hại, thậm chí có thể gây nguy hiểm cho trẻ em.
Mạng xã hội này sử dụng thuật toán tự động để phân phối nội dung, tạo xu hướng cho các nội dung clickbait, gây sốc, gây phản cảm, mặc kệ điều đó có thể gây hại cho cộng đồng và giới trẻ.
Không có biện pháp kiểm soát hiệu quả để ngăn chặn hoạt động kinh doanh, buôn bán, quảng cáo hàng giả, hàng nhái, các loại thuốc kích thích, và các thực phẩm chức năng không rõ nguồn gốc.

(Ảnh: Thanh Niên)
Cho phép các Idol TikTok tham gia thách đấu trực tuyến, nhận quà từ người xem. Càng gây sốc, phản cảm thì càng được tặng nhiều, có thể quy đổi ra tiền. TikTok sẽ thu 70% số tiền này.
Không có biện pháp kiểm soát hiệu quả về việc vi phạm bản quyền.
Không có biện pháp quản lý để người dùng tự ý sử dụng hình ảnh riêng tư của người khác để tung tin giả, hoặc xúc phạm người khác.
