
Facebook muốn bạn biết rằng họ đang cố gắng hết sức để đối phó với cách mà người ta sử dụng nền tảng của họ để gây hại. Chỉ là họ không biết chính xác phải làm gì. Điều gì tách biệt lời nói căm ghét từ ý kiến khó chịu, hoặc thông tin sai lệch từ thông tin sai lệch được tổ chức có ý định kích động bạo lực? Công ty nên cho phép gì tồn tại trên nền tảng, và nên cấm cái gì? Hai năm sau khi người Nga sử dụng Facebook như một phần của chiến dịch quy mô lớn để can thiệp vào dân chủ Mỹ, mạng xã hội vẫn đang cố gắng trả lời những câu hỏi đó, như hai tuần qua đã làm rõ. Nhưng họ đang cố gắng tìm ra đáp án.
Trong khi Facebook xác nhận cam kết chống tin giả trong những tuần gần đây, họ cũng bị buộc phải bảo vệ quyết định không cấm các trang web như InfoWars của Alex Jones. Thay vào đó, công ty nói rằng họ giảm phân phối nội dung được đánh dấu và xác nhận là sai lệch bởi các nhà kiểm chứng sự thật.
Vào thứ Tư, Kara Swisher của Recode đã phát sóng một cuộc phỏng vấn podcast với CEO Mark Zuckerberg, trong đó ông trình bày phương pháp của Facebook đối với thông tin sai lệch. "Những nguyên tắc mà chúng tôi áp dụng để loại bỏ nội dung khỏi dịch vụ là, nếu nó sẽ dẫn đến tổn thương thực sự, tổn thương về thể chất thực sự, hoặc nếu bạn đang tấn công cá nhân, thì nội dung đó không nên xuất hiện trên nền tảng," Zuckerberg nói. Như một ví dụ, ông giải thích rằng ông không nhất thiết sẽ xóa bài viết phủ nhận Holocaust khỏi Facebook. "Tôi thấy đó là sự xúc phạm sâu sắc. Nhưng cuối cùng, tôi không nghĩ rằng nền tảng của chúng tôi nên loại bỏ nó vì tôi nghĩ có những điều mà mọi người hiểu sai. Tôi không nghĩ rằng họ có chủ ý hiểu lầm," ông nói.
Mọi người hoảng loạn, và sau đó trong ngày đó Zuckerberg cố gắng lùi lại, làm rõ rằng 'Nếu một bài viết vượt quá ranh giới và kêu gọi bạo lực hoặc kỳ thị nhóm cụ thể, nó sẽ bị xóa bỏ.'
Nhưng Facebook đã bị chỉ trích vì vai trò của mình trong việc khuếch đại thông tin sai lệch mà có thể không vượt qua ranh giới đó nhưng vẫn dẫn đến bạo lực, ở các nước như Ấn Độ, Sri Lanka và Myanmar.
Kể từ thứ Tư, công ty đã công bố một loạt các thay đổi cho sản phẩm của mình có vẻ giải quyết vấn đề này. Dịch vụ nhắn tin riêng tư WhatsApp của họ đã thử nghiệm vào thứ Năm để giới hạn số lượng cuộc trò chuyện mà người dùng có thể chuyển tiếp tin nhắn. 'Nhà nghiên cứu Ấn Độ đã phát hiện ra rằng nhiều thông tin sai lệch trên WhatsApp đến từ những nhà hoạt động chính trị có 10 hoặc 20 nhóm xen kẽ,' Joan Donovan của nhóm Data & Society nói, người đã nghiên cứu về thông tin sai lệch và thông tin sai lệch trực tuyến trong nhiều năm. Cô mô tả cấu trúc của những chiến dịch thông tin sai lệch ở Ấn Độ như một tổ ong, ở các mép của đó là những nhà hoạt động trả tiền chuyển tiếp tin nhắn giả mạo rộng rãi. Hạn chế khả năng của họ để chuyển tiếp tin nhắn sẽ giúp đỡ, và WhatsApp nói rằng họ sẽ tiếp tục đánh giá các thay đổi.
Facebook cũng công bố một chính sách mới nhắm đến thông tin sai lệch cụ thể—nhưng chỉ khi nó đe dọa gây ra bạo lực ngay lập tức. 'Có một số hình thức thông tin sai lệch đã đóng góp vào tổn thương về thể chất, và chúng tôi đang thực hiện một thay đổi chính sách sẽ cho phép chúng tôi loại bỏ loại nội dung đó,' một người phát ngôn nói. Việc giải mã loại ngữ cảnh đó là một thách thức mà Facebook đã gặp phải khi đối mặt với những thứ như lời nói căm ghét, và sự sẵn lòng đối mặt với điều này có thể đại diện cho một sự chuyển đổi về việc đảm nhận trách nhiệm cho vai trò mà nền tảng của mình đóng trong xã hội. Bằng cách quyết định điều gì có thể dẫn đến bạo lực và hành động, Facebook đang đảm nhận những nhiệm vụ thường dành cho chính phủ và lực lượng chức năng. Nhưng mà không có thêm thông tin về cách họ sẽ quyết định những gì thuộc chính sách, và với những cáo buộc trước đây về việc kiểm soát nội dung một cách tùy tiện, một số nghiên cứu viên đang hoài nghi về hiệu suất của nó.
Donovan chỉ ra ví dụ về người phủ nhận Holocaust của Zuckerberg. 'Đối với tôi, đó là một ước tính thấp kinh hoàng về lượng chống Semitism trên thế giới,' cô nói. 'Điều đó cho thấy với tôi là họ không thể hiểu đúng cách nó đã được vũ trang lịch sử như thế nào chống lại những người Do Thái.' Donovan đã nghiên cứu một cách chi tiết về chống Semitism và chủ nghĩa trắng, và nói rằng hầu hết những người đăng nó trực tuyến đều làm điều đó với ý định bôi nhọ và nhắm vào người Do Thái. Liệu điều đó có tính làm tổn thương ngay lập tức không?
Công ty đã triển khai chính sách này ở Sri Lanka, nơi chính phủ đã đóng cửa quyền truy cập vào các nền tảng của nó sau vụ bạo lực tôn giáo vào đầu năm nay. Tiếp theo là Myanmar, nơi lực lượng an ninh đã bị buộc tội phạm tội ác đối với tộc người Rohingya. Kế hoạch, một người phát ngôn nói với Mytour, là cuối cùng sẽ áp dụng chính sách này trên toàn cầu, tuy nhiên cách triển khai đó sẽ không rõ ràng.
Để giúp xác định khi thông tin sai lệch đã chuyển từ 'chỉ là sai' sang 'sai và có thể góp phần gây ra bạo lực,' Facebook sẽ hợp tác với các nhóm xã hội dân sự địa phương có thể hiểu rõ hơn về bối cảnh văn hóa cụ thể. Công ty chưa cho biết đối tác của họ là ai ở Sri Lanka, hoặc ai sẽ là ở Myanmar hoặc nơi khác. Tuy nhiên, các nhóm địa phương ở Myanmar đã chỉ trích mạnh mẽ phản ứng của Facebook đối với bạo lực ở nước họ, như Mytour đã đưa tin vào đầu tháng này.
Những nhóm đó sẽ có ảnh hưởng lớn đối với cách chính sách được thực thi—một quyết định chính khác mà công ty cần phải đưa ra. 'Có các nhóm xã hội dân sự chống Semitism. Có các nhóm xã hội dân sự đang hoạt động trong xung đột. Chúng, theo bản chất của chúng, là gây chia rẽ,' Donovan nói. Cô cũng lo lắng rằng điều này có thể chỉ là một cách khác để Facebook tránh trách nhiệm. 'Ý kiến rằng một nhóm xã hội dân sự nên chịu trách nhiệm đối với việc đánh dấu nội dung này tiếp tục là một chiêu trò rất quen thuộc trên các nền tảng này, rằng người dùng nên là những người tuân thủ nền tảng.'
Facebook cũng chưa chắc liệu họ sẽ bao giờ công bố tên của những đối tác này, hoặc liệu họ sẽ làm điều này trong một số trường hợp nhưng không phải trong các trường hợp khác, theo một người phát ngôn. Ẩn danh có thể là một xem xét rất quan trọng đối với một số nhóm xã hội dân sự, người có thể phải đối mặt với bạo lực nếu các bên có lợi ích trong việc lan truyền thông tin sai lệch phát hiện họ đang hợp tác với Facebook để loại bỏ nó. Ngược lại, việc cấp ẩn danh như vậy đe dọa tính minh bạch về cách chính sách đang định nghĩa thông tin sai lệch nguy hiểm. Facebook cần phải đưa ra một kế hoạch cho trường hợp nào ẩn danh là hợp lý, và cách bảo vệ đối tác địa phương có thể đồng ý với việc họ có thể bị biết tên nhưng có thể bị mục tiêu của trolls hoặc các nhân tố xấu khi làm việc với Facebook.
Donovan tự hỏi điều gì sẽ xảy ra nếu một đối tác đưa ra đề xuất mà Facebook không tuân thủ và sau đó xảy ra một hành động bạo lực. Hoặc nếu bạo lực bùng phát do việc loại bỏ thông tin sai lệch?
Một đại diện của Facebook cho biết với Mytour rằng công ty đang lặp lại và giải quyết tất cả những chi tiết này bây giờ. Không rõ điều gì sẽ xảy ra với người chia sẻ thông tin sai lệch được phát hiện vi phạm chính sách này. Bài viết của họ sẽ bị xóa, đúng, nhưng liệu họ sẽ bị cấm? Một người phát ngôn của Facebook không chắc chắn.
'Chính sách mới của Facebook dường như ngụ ý rằng một bài viết phải 'vừa' sai lệch và được chia sẻ với ý định kích động gây hại để nó được đánh dấu để có khả năng, không chắc chắn, bị loại bỏ,' viết Luke Stark, một nghiên cứu xã hội tại Dartmouth nghiên cứu về sự giao thoa giữa công nghệ và hành vi, trong một email gửi đến Mytour.
'Stark tự hỏi chính sách sẽ khác nhau ở địa điểm nào, không chỉ về mặt cái gì được coi là thông tin sai lệch có thể gây hại, mà còn cách Facebook thực thi nó mạnh mẽ như thế nào. 'Facebook dường như đang đưa ra sự phân biệt về tác động của nó ở một số quốc gia (không phải ở phương Tây) - nơi nó thừa nhận thông tin sai lệch trên nền tảng đã gây hại về mặt vật lý - và vai trò tưởng chừng như vô hại hơn của nó tại Hoa Kỳ,' ông viết. Điều này khiến ông nghi ngờ chính sách sẽ dẫn đến một hệ thống hai tầng, nơi Facebook thực sự giám sát tích cực hơn ở một số quốc gia không thuộc phương Tây, trong khi để thông tin sai lệch lan truyền ở các quốc gia như Hoa Kỳ.
Chính sách sẽ được thực thi bởi đội ngũ dưới sự quản lý của Monika Bickert, giám đốc quản lý chính sách toàn cầu của Facebook. Trong những tuần và tháng sắp tới, đội ngũ sẽ công bố thêm thông tin cụ thể về chính sách. Chỉ sau đó chúng ta mới có thể đánh giá xem chính sách này có hiệu quả hơn không so với những nỗ lực khác của Facebook để kiểm soát điều gì xảy ra trên trang web của mình.
Những Điều Tuyệt Vời Nhiều Hơn Trên Mytour
- Crispr và tương lai biến đổi của thực phẩm
- Màn hình của chiếc điện thoại tiếp theo của bạn sẽ khó bị vỡ hơn nhiều
- 10 cộng đồng trực tuyến khó bảo vệ nhất
- Trường học có thể nhận công nghệ nhận diện khuôn mặt miễn phí. Liệu họ có nên không?
- Một thay đổi pháp lý địa điểm mở hộp Pandora cho súng DIY
- Đang tìm kiếm thêm? Đăng ký nhận bản tin hàng ngày của chúng tôi và không bao giờ bỏ lỡ những câu chuyện mới nhất và tuyệt vời nhất của chúng tôi
