Facebook đang chặn quyền truy cập của các nhà nghiên cứu vào dữ liệu về mức độ thông tin sai lệch mà nó lưu trữ
Các tài liệu nội bộ rò rỉ gợi ý rằng Facebook - gần đây đổi tên thành Meta - đang làm tệ hơn nhiều so với những gì họ tuyên bố khi giảm thiểu thông tin sai lệch về vaccine COVID-19 trên nền tảng mạng xã hội Facebook. Thông tin sai lệch trực tuyến về virus
Thông tin sai lệch trực tuyến về virus và vaccine là một vấn đề lớn. Trong một nghiên cứu, người tham gia khảo sát nhận tin tức từ Facebook hoặc nguồn tin chính thống khác, họ có xu hướng chống lại vaccine COVID-19 hơn.
Là một nhà nghiên cứu nghiên cứu về phương tiện truyền thông xã hội và dân chủ, tôi tin rằng việc hiểu biết về cách thông tin sai lệch lan truyền trực tuyến là rất quan trọng. Nhưng điều này không dễ dàng như nói. Chỉ đơn giản là đếm số lượng thông tin sai lệch được tìm thấy trên một nền tảng mạng xã hội để lại hai vấn đề chưa được giải quyết: Người dùng có khả năng gặp thông tin sai lệch và những người cụ thể có khả năng bị ảnh hưởng bởi thông tin sai lệch hay không? Đây là vấn đề mẫu số và vấn đề phân phối.
Nghiên cứu về thông tin sai lệch về COVID-19, “Thuật toán của Facebook: Một Mối Đe Dọa Lớn đối với Sức Khỏe Công Cộng”, được công bố bởi nhóm đấu tranh vì lợi ích cộng đồng Avaaz vào tháng 8 năm 2020, cho biết các nguồn thông tin thường xuyên chia sẻ thông tin sai lệch về sức khỏe - 82 trang web và 42 trang Facebook - có ước tính đạt tổng cộng 3,8 tỷ lượt xem trong một năm.
Ở cái nhìn đầu tiên, đó là một con số cực kỳ lớn. Nhưng quan trọng là phải nhớ rằng đây chỉ là mẫu số. Để hiểu rõ hơn về 3,8 tỷ lượt xem trong một năm, bạn cũng phải tính toán mẫu số. Mẫu số là phần của phân số ở trên đường phân, được chia cho phần của phân số ở dưới đường phân, tức là mẫu số.
Có được một cái nhìn tổng quan
Một mẫu số có thể là 2,9 tỷ người dùng Facebook mỗi tháng, trong trường hợp này, trung bình, mỗi người dùng Facebook đã tiếp xúc ít nhất một thông tin từ những nguồn thông tin sai lệch về sức khỏe này. Nhưng đây là 3,8 tỷ lượt xem nội dung, không phải là số người dùng riêng biệt. Mỗi người dùng Facebook tiếp xúc bao nhiêu thông tin trong một năm? Facebook không tiết lộ thông tin đó.
Without knowing the denominator, a numerator doesn’t tell you very much. The Conversation U.S., CC BY-NDCác nhà nghiên cứu thị trường ước tính người dùng Facebook dành từ 19 phút mỗi ngày đến 38 phút mỗi ngày trên nền tảng. Nếu 1,93 tỷ người dùng hoạt động hàng ngày của Facebook thấy trung bình 10 bài đăng trong các phiên hàng ngày của họ - một ước tính rất thận trọng - mẫu số cho 3,8 tỷ thông tin mỗi năm là 7,044 nghìn tỉ (1,93 tỷ người dùng hàng ngày lần 10 bài đăng hàng ngày lần 365 ngày trong một năm). Điều này có nghĩa là khoảng 0,05% nội dung trên Facebook là bài đăng từ những trang Facebook nghi ngờ này.
Con số 3,8 tỷ lượt xem bao gồm tất cả nội dung được xuất bản trên những trang này, bao gồm cả nội dung về sức khỏe vô hại, vì vậy tỷ lệ bài đăng trên Facebook là thông tin sai lệch về sức khỏe nhỏ hơn một phần trăm mười trong một phần trăm.
Liệu có đáng lo ngại khi có đủ thông tin sai lệch trên Facebook mà mọi người có lẽ đã gặp ít nhất một trường hợp? Hoặc có phải là yên tâm khi 99,95% những gì được chia sẻ trên Facebook không từ các trang mà Avaaz cảnh báo? Cả hai đều không.
Phân phối thông tin sai lệch
Ngoài việc ước tính mẫu số, cũng quan trọng phải xem xét phân phối thông tin này. Liệu mọi người trên Facebook có cùng khả năng tiếp xúc với thông tin sai lệch về sức khỏe? Hay những người tự xác định mình là không tiêm chủng vaccine hoặc tìm kiếm thông tin “sức khỏe thay thế” có khả năng gặp thông tin sai lệch loại này hơn?
Một nghiên cứu trên mạng xã hội khác tập trung vào nội dung cực đoan trên YouTube đưa ra một phương pháp để hiểu về phân phối thông tin sai lệch. Sử dụng dữ liệu trình duyệt từ 915 người dùng web, một nhóm của Liên Minh Phòng Chống Ô Nhục đã tuyển dụng một mẫu số lớn, đa dạng về đặc điểm dân số của người dùng web tại Mỹ và tăng mẫu số hai nhóm: người dùng nặng YouTube và những người cho thấy định kiến chủng tộc hoặc giới tính tiêu cực trong một số câu hỏi được hỏi bởi các nhà điều tra. Tăng mẫu số là việc khảo sát một mẫu số nhỏ của dân số hơn tỷ lệ của dân số để thu được dữ liệu tốt hơn về mẫu số.
Các nhà nghiên cứu phát hiện rằng 9,2% số người tham gia xem ít nhất một video từ một kênh cực đoan, và 22,1% xem ít nhất một video từ một kênh thay thế trong những tháng được nghiên cứu. Một điểm quan trọng cần lưu ý: Một nhóm nhỏ người đã đóng vai trò quan trọng trong hầu hết lượt xem của những video này. Và hơn 90% lượt xem video cực đoan hoặc “thay thế” đến từ những người báo cáo mức độ căm ghét chủng tộc hoặc giới tính cao trong cuộc khảo sát trước nghiên cứu.
Mặc dù khoảng 1 trong 10 người tìm thấy nội dung cực đoan trên YouTube và 2 trong 10 người tìm thấy nội dung từ những người khiêu khích cánh hữu, hầu hết những người gặp phải nội dung như vậy “không quan tâm” và chuyển sang nơi khác. Nhóm tìm thấy nội dung cực đoan và tìm kiếm thêm là những người có khả năng: những người có quan điểm phân biệt chủng tộc và giới tính mạnh mẽ.
Các tác giả kết luận rằng “việc tiêu thụ nội dung có hại có khả năng tập trung trong số người Mỹ đã có mức độ căm ghét chủng tộc cao,” và thuật toán của YouTube có thể củng cố mô hình này. Nói cách khác, việc biết tỷ lệ người dùng nào gặp phải nội dung cực đoan không cho bạn biết có bao nhiêu người tiêu thụ nó. Để biết điều đó, bạn cần biết về phân phối cũng.
Người lan truyền rộng lớn hay chơi trò Whack-a-Mole?
Một nghiên cứu rộng rãi từ nhóm chống kỳ thị nói không với thông điệp chống ghét Center for Countering Digital Hate mang tiêu đề Người Lợi Dụng Đại dịch cho thấy trong số 30 nhóm Facebook chống vaccine được xem xét, 12 nhân vật nổi tiếng phản đối vaccine chịu trách nhiệm cho 70% nội dung được phổ biến trong nhóm này, và ba người nổi bật nhất chịu trách nhiệm gần một nửa. Nhưng lại quan trọng phải hỏi về mẫu số: Có bao nhiêu nhóm chống vaccine được lưu trữ trên Facebook? Và bao nhiêu phần trăm người dùng Facebook tiếp cận loại thông tin được chia sẻ trong những nhóm này?
Thiếu thông tin về mẫu số và phân phối, nghiên cứu chỉ cho thấy điều gì đó thú vị về 30 nhóm Facebook chống vaccine này, nhưng không có gì về thông tin y tế sai lệch trên Facebook nói chung.
Những loại nghiên cứu này đặt ra câu hỏi, “Nếu các nhà nghiên cứu có thể tìm thấy nội dung này, tại sao các nền tảng truyền thông xã hội không thể xác định và loại bỏ nó?” Nghiên cứu Người Lợi Dụng Đại dịch, ngụ ý rằng Facebook có thể giải quyết 70% vấn đề thông tin sai lệch y tế chỉ bằng việc xóa chỉ một tá tài khoản, rõ ràng ủng hộ việc loại bỏ nền tảng của những người phân phối thông tin sai lệch. Tuy nhiên, tôi phát hiện ra rằng 10 trong số 12 người ảnh hưởng chống vaccine được đề cập trong nghiên cứu đã bị Facebook loại bỏ.
Hãy xem xét Del Bigtree, một trong ba người phổ biến nhất lan truyền thông tin sai lệch về tiêm chủng trên Facebook. Vấn đề không phải là Bigtree đang tuyển mộ người theo dõi chống vaccine mới trên Facebook; vấn đề là người dùng Facebook theo dõi Bigtree trên các trang web khác và mang nội dung của anh ta vào cộng đồng Facebook của họ. Không phải chỉ có 12 cá nhân và nhóm đăng thông tin sai lệch về sức khỏe trực tuyến – có thể là hàng nghìn người dùng Facebook cá nhân chia sẻ thông tin sai lệch tìm thấy ở nơi khác trên web, đều đặn theo đuổi những người này. Việc cấm hàng ngàn người dùng Facebook sẽ khó hơn nhiều so với việc cấm 12 người nổi tiếng phản đối vaccine.
Đây là lý do tại sao câu hỏi về mẫu số và phân phối là quan trọng để hiểu về thông tin sai lệch trực tuyến. Mẫu số và phân phối cho phép các nhà nghiên cứu hỏi về những hành vi phổ biến hay hiếm trên mạng, và ai tham gia vào những hành vi đó. Nếu hàng triệu người dùng gặp phải đôi khi các mẩu thông tin sai lệch về y tế, nhãn cảnh báo có thể là một biện pháp can thiệp hiệu quả. Nhưng nếu thông tin sai lệch y tế chủ yếu được tiêu thụ bởi một nhóm nhỏ đang tích cực tìm kiếm và chia sẻ nội dung này, những nhãn cảnh báo này có thể hoàn toàn vô dụng.
Có được dữ liệu chính xác
Cố gắng hiểu thông tin sai lệch bằng cách đếm nó, mà không xem xét mẫu số hoặc phân phối, là điều xảy ra khi những ý định tốt va chạm với các công cụ kém hiệu quả. Không mạng xã hội nào cho phép các nhà nghiên cứu tính toán chính xác mức độ nổi bật của một nội dung cụ thể trên toàn nền tảng của họ.
Facebook hạn chế hầu hết các nhà nghiên cứu đến công cụ Crowdtangle của họ, chia sẻ thông tin về sự tương tác với nội dung, nhưng điều này không giống với lượt xem nội dung. Twitter một cách rõ ràng ngăn chặn các nhà nghiên cứu từ việc tính toán mẫu số, cả số lượng người dùng Twitter hoặc số lượng tweet được chia sẻ trong một ngày. YouTube làm cho việc tìm hiểu có bao nhiêu video được lưu trữ trên dịch vụ của họ trở nên rất khó khăn, đến mức Google thường xuyên yêu cầu ứng viên phỏng vấn ước tính số video trên YouTube để đánh giá kỹ năng số liệu của họ.
Các nhà lãnh đạo của các nền tảng mạng xã hội đã lý giải rằng công cụ của họ, mặc dù có vấn đề, tốt cho xã hội, nhưng lập luận này sẽ thuyết phục hơn nếu các nhà nghiên cứu có thể xác minh độc lập tuyên bố đó.

Bài viết của Ethan Zuckerman, Giáo sư Kế hoạch Công cộng, Truyền thông và Thông tin, Đại học Massachusetts Amherst
Bài viết này được đăng lại từ The Conversation dưới giấy phép Creative Commons. Đọc bài viết gốc.
