Để né tránh luật kiểm duyệt của nền tảng này, nhiều từ lóng mang ý nghĩa độc hại đã được tạo ra.
Bắt đầu năm 2023, nữ diễn viên, người mẫu Mỹ Julia Fox phải đối mặt với nhiều chỉ trích khi vô tình bình luận về một video TikTok sử dụng từ lóng.
Theo đó, một TikToker tên là Conor Whipple đã viết trong phần mô tả video rằng: 'Tôi đã tặng mascara cho một cô gái và cô ấy quyết định cùng bạn của mình thử nó mà không cần sự đồng ý của tôi'.

Dưới phần bình luận của video, Julia Fox nói: 'Tôi không hiểu vì sao nhưng tôi không thấy có gì đáng buồn về việc đó'.
Bình luận của cô ngay lập tức gây tranh cãi khi nhiều người, bao gồm cả chủ nhân video, cho rằng Julia Fox đang ủng hộ hành vi tấn công tình dục.
Ngay sau khi sự việc xảy ra, Julia tức khắc nhận ra vấn đề và giải thích rằng cô không hề biết thuật ngữ 'mascara' (một sản phẩm trang điểm) được sử dụng trên nền tảng này với ý nghĩa 'tình dục' và đã gửi lời xin lỗi đến tác giả bài viết.
Chuỗi từ lóng 18+ được mã hóa
Trên TikTok, 'mascara' chỉ là một trong số nhiều thuật ngữ được mã hóa bằng ngôn ngữ internet mới được gọi là 'algospeak' (các thuật ngữ được người dùng mạng xã hội tạo ra để đánh lừa hệ thống kiểm duyệt tự động của trí tuệ nhân tạo).
Để tránh bị kiểm duyệt, đôi khi các thuật ngữ không liên quan như 'mascara', 'ana', các từ không có nghĩa nhưng có phát âm giống với từ gốc như 'seggs' (sex - tình dục) hoặc cutt1ing (cutting - cắt/tự hại), 'unalive' (dead - chết) đã được tạo ra.

Ngoài ra, có chuỗi từ như 'Yt people' được sử dụng phổ biến để chỉ người da trắng hoặc từ 'Le$bean' được sử dụng thay cho người đồng tính nữ trong các video. Khi TikTok cố gắng hạn chế nội dung liên quan đến Covid-19, từ 'panini' và 'panoramic' đã trở thành thuật ngữ thay thế cho 'pandemic' (đại dịch). Khi đề cập đến chất cấm, những thuật ngữ như 'snow' (tuyết) hoặc 'skiing' (trượt tuyết) cũng là những từ được sử dụng.
Mặc dù những từ lóng này giúp người dùng TikTok thể hiện suy nghĩ của họ mà không sợ bị kiểm duyệt, nhưng đồng thời cũng mở ra cánh cửa cho nhiều nội dung nguy hiểm về chất cấm, tình dục hoặc tự hại được lan truyền mạnh mẽ hơn bao giờ hết.
Theo một khảo sát mới từ TELUS International, 51% cư dân mạng thừa nhận họ hiểu các từ lóng trên TikTok. Đối với thế hệ Gen Z, con số này tăng lên đến 72%, chứng tỏ sức ảnh hưởng mạnh mẽ của các thuật ngữ này.

Theo quy định của cộng đồng TikTok, ứng dụng này không chấp nhận bất kỳ hành vi tự sát, tự tổn thương hoặc rối loạn ăn uống nào được tôn vinh hoặc lan truyền.
Mặc dù có những nỗ lực kiểm duyệt, các từ 'mã hóa' nói trên chỉ làm cho những người quan tâm đến những vấn đề tiêu cực này tìm thấy nhau nhanh hơn. Điều này có thể gây nguy hiểm đặc biệt khi người dùng tìm kiếm những thứ có thể gây hại cho họ.
Thách thức trong việc ngăn chặn nội dung có hại
Vince Lynch, một chuyên gia về trí tuệ nhân tạo, nói rằng hiện tượng này đang ngày càng trở nên phổ biến và tạo ra những thách thức lớn trong việc kiểm duyệt nội dung.
Theo dữ liệu từ công ty, TikTok đã loại bỏ 110 triệu video chỉ trong khoảng thời gian từ tháng 7 đến tháng 9 năm 2022, chiếm khoảng 1% tổng số nội dung trên ứng dụng.
Khoảng một nửa số video đã tự động bị loại bỏ bởi trí tuệ nhân tạo phát hiện nội dung bị cấm. Đây là lý do mà những người tạo nội dung đã bắt đầu thay thế các từ ngữ nhạy cảm bằng các thuật ngữ khác.

Các từ lóng được coi là một trong những trở ngại lớn nhất cho việc kiểm duyệt, đặc biệt là khi TikTok có hàng triệu người dùng trẻ tuổi, cũng như lượng người dùng trẻ giả danh để xem nội dung dành cho người lớn.
Mặc dù công nghệ đằng sau việc kiểm duyệt nội dung đang ngày càng tiến bộ, Lynch lo ngại rằng điều này sẽ khiến cách lách luật ngày càng phong phú và làm cho việc kiểm duyệt trở thành một 'trò chơi đuổi bắt' không có hồi kết.
'Càng có nhiều quy định trên mạng xã hội, người dùng càng tìm ra nhiều cách hơn để lách luật.' - Lynch nhận định
Nguồn: Bài viết trên New York Post
