Facebook muốn bạn tin rằng trí tuệ nhân tạo của họ đang chống lại lời lẽ căm hận
Giữa thập kỷ trước, Facebook quyết định cần phải xây dựng trí tuệ nhân tạo để chống lại lời lẽ căm hận.
Mặc dù công nghệ này đã hoạt động trong một số trường hợp, chúng ta cũng đã thấy những thất bại rõ ràng. Sau vụ xả súng tại Christchurch, ví dụ, Facebook không thể nhanh chóng xóa video.
Trong cuối tuần, the Wall Street Journal đã đăng bài báo mới chỉ ra rằng trí tuệ nhân tạo của Facebook không thể nhận diện video ghi lại từ góc nhìn người đầu tiên và lời lẽ phân biệt chủng tộc một cách nhất quán. Ngoài ra, có một sự cố kỳ lạ khi thuật toán không thể phân biệt giữa việc tổ chức đá gà và tai nạn xe hơi.
Báo cáo lưu ý rằng trí tuệ nhân tạo của công ty chỉ phát hiện một phần nhỏ bài viết chứa lời lẽ căm hận trên nền tảng, và loại bỏ một vài trong số đó. Trong các tài liệu rò rỉ gần đây của cựu nhân viên Facebook Frances Haugen, công ty chỉ xử lý từ 3-5% nội dung chứa lời lẽ căm hận và 0.6% nội dung chứa bạo lực và kích động.
Hội nghị TNW 2024 - Gọi tên tất cả các Startup tham gia vào ngày 20-21 tháng 6
Trưng bày Startup của bạn trước các nhà đầu tư, những người thay đổi và khách hàng tiềm năng với các gói Startup được chọn lọc của chúng tôi.
Theo một kỹ sư cấp cao đã nói với WSJ, công ty không có và "có thể không bao giờ có một mô hình nắm bắt được thậm chí là đa số các hại về tính chất, đặc biệt là trong các lĩnh vực nhạy cảm."
Facebook đã phản đối những lời tố cáo này thông qua một bài đăng trên blog do Phó Chủ tịch về tính đạo đức Guy Rosen viết. Bài đăng khẳng định rằng trí tuệ nhân tạo của công ty đã giảm tỷ lệ phổ biến của lời lẽ căm hận trên nền tảng đi 50%.
Tỷ lệ phổ biến là một chỉ số mà công ty sử dụng để đánh giá sự lan truyền của lời lẽ căm hận trên nền tảng. Ví dụ, tỷ lệ phần trăm hiện tại là 0.05%. Điều đó có nghĩa là 5 lượt xem trên mỗi 10.000 gặp phải một bài viết liên quan đến lời lẽ căm hận. Tuy nhiên, với quy mô lớn của Facebook, điều đó vẫn có nghĩa là rất nhiều người nhìn thấy những bài viết này.
Rosen cho biết dữ liệu từ các tài liệu rò rỉ đang cố gắng vẽ một hình ảnh sai lầm rằng trí tuệ nhân tạo của Facebook không đủ khả năng để loại bỏ lời lẽ căm hận:
Dữ liệu được rút từ các tài liệu rò rỉ đang được sử dụng để tạo nên một câu chuyện rằng công nghệ chúng tôi sử dụng để chống lại lời lẽ căm hận không đủ và rằng chúng tôi cố ý biến tình hình tiến triển của mình. Điều này không đúng. Chúng tôi không muốn thấy lời lẽ căm hận trên nền tảng của mình, cũng như người dùng hoặc nhà quảng cáo, và chúng tôi minh bạch về công việc của mình để loại bỏ nó.
Người phát ngôn của Facebook Andy Stone cho biết với WSJ rằng trí tuệ nhân tạo chỉ là một trong những cách mà công ty nhắm tới để giải quyết lời lẽ căm hận. Nó cũng giảm khả năng nhìn thấy các bài viết gây vấn đề để ít người hơn nhìn thấy chúng.
Mặc dù công ty tuyên bố rằng trí tuệ nhân tạo của họ đã cải thiện một cách đáng kể, những ví dụ như liên quan người da đen với loài khỉ vẫn tiếp tục xuất hiện.
Mặc dù có những điểm thiếu sót này, Facebook vẫn lạc quan trong việc sử dụng trí tuệ nhân tạo để chống lại lời lẽ căm hận. Điều đó có nghĩa là công ty cần phải nỗ lực và làm cho thuật toán của mình trở nên bao quát và hiệu quả hơn.
