Facebook Sử Dụng Toán Học Lừa Dối Để Che Giấu Vấn Đề Nó Về Nói Xấu

Trong công khai, Facebook dường như tuyên bố rằng nó loại bỏ hơn 90% nội dung gây thù ghét trên nền tảng của mình, nhưng trong các cuộc trò chuyện nội bộ riêng tư, công ty cho biết con số chỉ là 3 đến 5%. Facebook muốn chúng ta tin rằng hầu hết mọi bài nói xấu đều bị gỡ xuống, khi thực tế hầu hết chúng vẫn tồn tại trên nền tảng.
Sự đạo đức kinh khủng này được tiết lộ giữa những khiếu nại liên quan đến hàng nghìn trang tài liệu nội bộ rò rỉ, mà cựu nhân viên Facebook và người làm tố cáo Frances Haugen cùng đội ngũ pháp lý của mình đã nộp đơn lên Ủy ban Chứng khoán và Giao dịch Hoa Kỳ trong tháng này. Trong khi sự chú ý của công chúng đổ vào các rò rỉ này tập trung vào ảnh hưởng của Instagram đối với sức khỏe của teen (điều này khó có thể coi là một bằng chứng quan trọng) và vai trò của thuật toán News Feed trong việc tăng cường tin đồn (không phải là một phát hiện), thất bại toàn diện của Facebook trong việc hạn chế bài nói xấu và mánh khóe lừa dối đơn giản mà nó luôn dựa vào để che đậy sự thất bại này làm kinh ngạc. Nó bóc lột sự phụ thuộc của Facebook vào trí tuệ nhân tạo để quản lý nội dung, hiệu suất kém của trí tuệ nhân tạo đó, và sự cần thiết phải ép Facebook thú nhận sự thật.
Trong lời khai trước Thượng viện Hoa Kỳ vào tháng 10 năm 2020, Mark Zuckerberg trỏ đến bản báo cáo minh bạch của công ty, nơi ông nói rằng “chúng tôi đang xác định một cách tích cực, tôi nghĩ là khoảng 94% nội dung gây thù ghét mà chúng tôi đã gỡ xuống.” Trong lời khai trước Hạ viện vài tháng sau đó, Zuckerberg cũng trả lời câu hỏi về nội dung gây thù ghét bằng cách trích dẫn một bản báo cáo minh bạch: “Chúng tôi cũng đã loại bỏ khoảng 12 triệu nội dung trong các nhóm vì vi phạm chính sách của chúng tôi về nói xấu, 87% trong số đó chúng tôi đã xác định tích cực.” Gần như trong mọi báo cáo minh bạch hàng quý, Facebook công bố tỷ lệ quản lý nội dung gây thù ghét trong khoảng từ 80 đến 90 như vậy. Tuy nhiên, một tài liệu rò rỉ từ tháng 3 năm 2021 nói, “Chúng tôi có thể xử lý chỉ từ 3-5% nội dung gây thù… trên Facebook.”
Facebook có thực sự bị bắt gặp trong một trường hợp nói xấu khủng khiếp? Có và không. Theo kỹ thuật, cả hai chơi chơi xổ sốu đúng—chúng chỉ đo lường những điều khác nhau. Điều quan trọng là con số mà Facebook đã giấu giếm. Con số mà Facebook công bố công khai là không liên quan. Đó giống như nếu mỗi lần một cảnh sát dừng bạn và hỏi bạn đang đi nhanh bao nhiêu, bạn luôn luôn trả lời bằng cách phớt lờ câu hỏi và thay vào đó tự hào về mức tiêu thụ nhiên liệu của chiếc xe của bạn.
Có hai cách mà nội dung gây thù ghét có thể được đánh dấu để xem xét và có thể bị gỡ bỏ. Người dùng có thể báo cáo nó bằng cách thủ công, hoặc các thuật toán trí tuệ nhân tạo có thể cố gắng phát hiện nó tự động. Việc phát hiện bằng thuật toán quan trọng không chỉ vì nó hiệu quả hơn, mà còn vì nó có thể được thực hiện tích cực, trước khi bất kỳ người dùng nào báo cáo về nội dung gây thù ghét.
Con số 94% mà Facebook công bố công khai là “tỉ lệ tích cực,” tức là số lượng nội dung gây thù ghét được loại bỏ mà trí tuệ nhân tạo của Facebook phát hiện tích cực, chia cho tổng số lượng nội dung gây thù ghét bị loại bỏ. Facebook có lẽ muốn bạn nghĩ rằng con số này thể hiện mức độ nội dung gây thù ghét bị loại bỏ trước khi nó có cơ hội gây hại—nhưng thực sự nó chỉ đo lường vai trò của thuật toán trong việc phát hiện nội dung gây thù ghét trên nền tảng.
Điều quan trọng đối với xã hội là lượng nội dung gây thù ghét không bị loại bỏ khỏi nền tảng. Cách tốt nhất để thu thập điều này là số lần gỡ bỏ nội dung gây thù ghét chia cho tổng số lượng trường hợp nội dung gây thù ghét. Tỉ lệ “gỡ bỏ” này đo lường mức độ nội dung gây thù ghét trên Facebook thực sự bị loại bỏ—và đây là con số mà Facebook đã cố giấu giếm.
Nhờ vào Haugen, chúng ta cuối cùng biết được tỉ lệ gỡ bỏ, và nó thật là đáng thất vọng. Theo các tài liệu nội bộ, hơn 95% nội dung gây thù ghét được chia sẻ trên Facebook vẫn tồn tại trên Facebook. Zuckerberg tự hào trước Quốc hội rằng Facebook đã gỡ xuống 12 triệu nội dung gây thù ghét trong Nhóm, nhưng dựa trên ước lượng rò rỉ, chúng ta bây giờ biết rằng khoảng 250 triệu mảnh nội dung gây thù ghét có lẽ đã được giữ lại. Điều này làm kinh ngạc và cho thấy tiến triển ít ỏi kể từ những ngày đầu của các diễn đàn internet không kiểm duyệt—mặc dù Facebook đã đầu tư rất nhiều vào việc quản lý nội dung bằng trí tuệ nhân tạo suốt những năm qua.
Thật không may, khi đội luật sư của Haugen gửi đơn tố cáo đến Ủy ban Chứng khoán và Giao dịch Hoa Kỳ, nó đã làm mờ vấn đề bằng cách khẳng định nổi bật và đậm, “Hồ sơ của Facebook Xác Nhận Rằng Các Tuyên Bố Của Facebook Là Giả Mạo.” Điều này là không đúng: Facebook không nói dối kỹ thuật hoặc “nói sai” sự thật, như đơn tố cáo cho rằng—nhưng họ đã lừa dối công chúng một cách không nghi ngờ về việc nền tảng của họ là một khu rác của nội dung gây thù ghét và về cách công ty này kém cỏi trong việc kiềm chế nó.
Đừng ngạc nhiên khi thấy đội luật sư bảo vệ của Facebook nhảy vào sự cẩu thả của đội luật sư Haugen. Nhưng đừng bị lạc lõng bởi bất kỳ nỗ lực nào để làm mất uy tín vào những phát hiện của người tiết lộ thông tin. Điều quan trọng là Facebook đã biết từ nhiều năm nay rằng họ đang thất bại thảm hại trong việc kiểm soát nội dung gây thù ghét trên nền tảng của mình, và để che giấu điều này khỏi các nhà đầu tư và công chúng, Facebook đã tung ra con số tích cực không ý nghĩa để làm mất tập trung chúng ta khỏi tỉ lệ gỡ bỏ có ý nghĩa và được bảo mật chặt chẽ.
Một biện pháp khác mà Facebook đôi khi tự hào là "tần suất" của nội dung gây thù ghét. Khi được yêu cầu bình luận về bài viết này, người phát ngôn của Facebook viết trong một tuyên bố qua email rằng "tần suất của nội dung gây thù ghét trên Facebook hiện nay là 0.05% so với nội dung được xem và giảm gần 50% trong ba quý gần đây." Tần suất có đưa ra cái nhìn về mức độ nội dung gây thù ghét trên nền tảng, nhưng vẫn tạo ra một bức tranh màu hồng một cách mông lung. Phân phối của nội dung gây thù ghét không đều đặn đến mức độ mà một phần trăm thô sơ như vậy che giấu sự phổ biến cao của nội dung gây thù ghét xảy ra trong cộng đồng cụ thể và mà nhiều người dùng cá nhân trải nghiệm. Hơn nữa, việc thấy nội dung không gây thù ghét trên Facebook không làm cho nội dung gây thù ghét trở nên ít độc hại hơn—nhưng đây chính là điều mà sự phụ thuộc vào tần suất ngụ ý.
Khi sự chú ý của công chúng chuyển từ việc phát hiện ra các vấn đề của truyền thông xã hội sang việc tìm cách giải quyết chúng, có hai điều quan trọng ở đây.
Thứ nhất, Zuckerberg đã lặp đi lặp lại quan điểm rằng việc cải thiện trí tuệ nhân tạo sẽ là chìa khóa chính của công ty để giải quyết vấn đề nội dung có hại. Anh nói về điều này sau cuộc bầu cử năm 2016, khi chiến dịch thông tin sai lệch của Nga lan rộng trên nền tảng. Anh nói về điều này trong một video Facebook Live năm 2017, trong khi nướng thịt ở sân sau nhà anh: “Đặc biệt với trí tuệ nhân tạo, tôi thực sự lạc quan. Những người nói không tích cực và cố tình nêu lên những kịch bản tận thế này—tôi chỉ là, tôi không hiểu nó là gì.” Điều đáng chú ý là CEO của Facebook chia sẻ chi tiết cụ thể hơn về cách anh nướng thịt nạc từ một con bò anh giết chính mình (đặt ở 225 độ trong tám giờ, lật mỗi hai giờ một lần) hơn là về khả năng chuyên nghiệp của trí tuệ nhân tạo của công ty, nhưng đây là một tình huống tận thế mà anh ta có thể hiểu: Năm 2021, trí tuệ nhân tạo của Facebook vẫn chỉ bắt được một phần nhỏ của nội dung gây thù ghét trên nền tảng.
Thật không may, không có viên đạn bạc nào khi nói đến nội dung gây thù ghét trực tuyến. Kiểm duyệt nội dung là một vấn đề vô cùng khó khăn, và chúng ta cần phải nhận ra rằng trí tuệ nhân tạo rất xa xôi so với liều pháp mà nó thường xuyên được đề xuất. Nhưng nếu có một điểm được đặt ra nhiều hơn bất cứ điều gì khác bởi Haugen và những người tiết lộ thông tin trước đó, đó là chúng ta không thể chỉ hy vọng vào sự chân thành từ các ông lớn công nghệ — chúng ta phải tìm cách đặt điều đó thành luật pháp. Điều này đưa chúng ta đến điểm thứ hai:
Một quy định minh bạch đơn giản nhưng hữu ích sẽ là yêu cầu tất cả các nền tảng công bố tỉ lệ gỡ bỏ của họ đối với các loại nội dung có hại khác nhau (như nội dung gây thù ghét và thông tin sai lệch). Tỉ lệ gỡ bỏ chắc chắn có thể bị lừa dối, nhưng điều này vẫn là một bước tiến đúng hướng và sẽ ngăn chặn chiêu trò lừa dối mà Facebook đã sử dụng suốt nhiều năm. Giống như bạn và tôi cần một điểm tín dụng để nhận được khoản vay, Facebook và các nền tảng truyền thông xã hội khác cũng nên cần một điểm tín dụng kiểm soát nội dung—dựa trên tỉ lệ gỡ bỏ, không phải tỉ lệ tích cực hoặc các biện pháp không có ý nghĩa khác—để tiếp tục kinh doanh.
MYTOUR Opinion đăng bài viết của các đồng tác giả đại diện cho nhiều quan điểm khác nhau. Đọc thêm ý kiến ở đây, và xem hướng dẫn nộp bài của chúng tôi ở đây. Gửi bài viết chân thành tại [email protected].
Những điều tuyệt vời khác từ MYTOUR
- 📩 Cập nhật mới nhất về công nghệ, khoa học và nhiều hơn nữa: Đăng ký nhận bản tin của chúng tôi!
- Becky Chambers có phải là hy vọng cuối cùng cho khoa học viễn tưởng không?
- Một đoạn trích từ The Every, tiểu thuyết mới của Dave Eggers
- Tại sao James Bond không sử dụng iPhone
- Thời điểm để mua quà lễ đã đến
- Việc miễn trừ tôn giáo cho yêu cầu tiêm chủng không nên tồn tại
- 👁️ Khám phá trí tuệ nhân tạo như chưa bao giờ có với cơ sở dữ liệu mới của chúng tôi
- 🎮 MYTOUR Games: Nhận các mẹo, đánh giá và nhiều hơn nữa
- ✨ Tối ưu hóa cuộc sống tại nhà với những lựa chọn tốt nhất của đội ngũ Gear chúng tôi, từ robot hút bụi đến nệm giá rẻ đến loa thông minh
