Điều Facebook Tự Đặt Ra Cho Bạn Không Được Đăng

Nếu bạn ăn người nào đó, đừng chia sẻ nó trên Facebook. Video về việc ăn thịt người bị cấm.
Tương tự với hình ảnh tĩnh hoặc động về nạn nhân ăn thịt người, sống hoặc chết. Trừ khi hình ảnh được hiển thị trong bối cảnh y tế với cảnh báo chỉ những người trên 18 tuổi mới có thể xem. Nhưng nội dung kích thích về ăn thịt người? Cấm đối với mọi độ tuổi. Không chỉ trên Trang Tin tức; nó cũng là một 'không' trên các dịch vụ khác của Facebook như Instagram—và thậm chí là Messenger.
Hôm nay, Facebook đang công bố gần như toàn bộ bộ quy tắc cộng đồng mà các người kiểm duyệt sử dụng để xác định xem bình luận, tin nhắn, hay hình ảnh mà 2.2 tỷ người dùng của mình đăng có vi phạm chính sách hay không. Những bước tiến này là một phần của nỗ lực liên tục Trust-A-Palooza của Facebook để trở nên mở cửa hơn trước sự chỉ trích chưa từng có. Trong quá trình làm điều này, công ty đang làm trần lộ ra bao nhiêu xấu xí mà các người kiểm duyệt nội dung toàn cầu của mình phải đối mặt hàng ngày, và đồng thời làm rõ việc luôn luôn đúng là một công việc khó khăn như thế nào.
"Tôi đã muốn làm điều này từ lâu," nói Monika Bickert, Trưởng Bộ phận Quản lý Chính sách Toàn cầu của Facebook, về việc công bố này. Trước khi gia nhập công ty, bà là một công tố viên liên bang và là cố vấn pháp lý của Mỹ cho đại sứ quán Bangkok. (Bà cũng có niềm vui độc đáo khi phải bảo vệ công ty trước Quốc hội tháng 1 năm ngoái.) "Tôi thực sự đã có cuộc trò chuyện nơi tôi nói về các tiêu chuẩn của chúng tôi và mọi người nói, 'Thực sự là tôi không nhận ra bạn có chính sách.'"
Xuất hiện ngay sau lời khai của CEO Mark Zuckerberg trong hai phiên điều trần Quốc hội kéo dài tháng trước, việc công bố này là hợp lý nếu không phải là quá muộn. Zuckerberg lặp đi lặp lại trách nhiệm về những gì được đăng trên Facebook, và ông xin lỗi khi các lập pháp đề cập đến các trường hợp mà các người kiểm duyệt của ông (hiện nay là một đội quân 7,500 người) không thể loại bỏ nội dung không thích hợp một cách rõ ràng, từ việc bán opioid đến lời lẽ thù địch tại Myanmar có thể kích thích một vụ diệt chủng. Tuy nhiên, ông không bao giờ rút lui khỏi niềm tin rằng công ty đang trên đà giảm thiểu vấn đề bằng cách thêm nhiều người kiểm duyệt hơn và cuối cùng là tự động hóa quy trình bằng thuật toán AI sẽ nhanh chóng bắt nội dung phê phán hơn so với người kiểm duyệt, thường xem nội dung khi người dùng báo cáo nó là không thích hợp."
Dưới áp lực thẩm vấn, ông không có cơ hội để trình bày cách tiếp cận tinh tế mà công ty thực hiện để áp đặt các tiêu chuẩn cộng đồng tự đặt ra trong khi vẫn khuyến khích tự do ngôn luận, bao gồm cả lời nói mà một số người dùng có thể thấy là không chấp nhận được. Dilemma của Facebook là muốn trở thành một nơi an toàn cho người dùng mà không trở thành một bộ lọc nghiêm ngặt với bài nói của họ. Trong tài liệu được công bố hôm nay, công ty giải thích, "Chúng tôi ưu tiên cho phép nội dung, ngay cả khi một số người thấy nó là không chấp nhận được, trừ khi việc loại bỏ nội dung đó gây nguy hiểm cụ thể."
Nếu quỷ nằm trong chi tiết, hướng dẫn 27 trang này thật sự là công việc của quỷ. Chính sách này, theo Bickert, đại diện cho hầu hết tài liệu làm việc được cung cấp cho người kiểm duyệt. (Những ngoại lệ liên quan đến thông tin trong các lĩnh vực như khủng bố có thể làm cho kẻ ác hơn dễ tránh sự chú ý.) Và đây là một tài liệu sống—việc công bố nó hôm nay không nghi ngờ sẽ dẫn đến những chỉ trích cụ thể mà công ty sẽ xem xét trong quá trình xem xét liên tục của chính sách.
Tài liệu này không đi kèm với cảnh báo nội dung rõ ràng, nhưng có thể dễ dàng có. Danh sách hơn 8,000 từ của các điều cấm miêu tả với độ chi tiết thường xuyên cách mạng cách Facebook định nghĩa hơn 20 tội ác khác nhau, từ quấy rối và bạo lực đồ họa đến tin tức giả mạo và tài khoản giả mạo. Hãy xem điểm danh cấm video hiển thị "ném, xoay hoặc rung động trẻ sơ sinh quá nhỏ để đứng bằng cổ tay, cổ chân, cánh tay, chân hoặc cổ." Các tiêu chuẩn yêu cầu Facebook cung cấp nguồn lực cho những người đăng bài "hình ảnh nơi có nhiều hơn một cắt tự tử trên một phần cơ thể và chủ đề chính của hình ảnh là một hoặc nhiều cắt chưa lành."
Mảnh của chính sách đã bị rò rỉ trước đây; vào tháng 5 năm 2017, The Guardian đã xuất bản các phần lớn của một bộ traning deck trước đó. Nhưng việc công bố chính sách chính thức là một bước quan trọng. Facebook hiểu rằng nó đang mở cửa cho sự chế giễu về những phân biệt tưởng chừng như ngớ ngẩn như định nghĩa của nó về "thủ phạm hàng loạt." (Giết chết bốn người đủ điều kiện; từ hai đến ba, bạn là một "thủ phạm hàng loạt," và những người hâm mộ của bạn có một chút linh động hơn trong việc bảo vệ bạn.) Nhưng nếu thiếu những chi tiết mịt mờ như vậy, làm sao các người kiểm duyệt của nó có thể áp dụng chính sách? Như Zuckerberg nói trước Quốc hội, "Chúng tôi có các chính sách để cố gắng làm cho nó ít chủ quan nhất có thể."
Các tiêu chuẩn trở nên chặt chẽ nhất khi nói đến lời nói căm giận, một cố gắng để điều chỉnh sự ranh giới mong manh giữa việc cấm nội dung độc hại thực sự và cho phép mọi người xả hơi trong tổng quát. Việc sử dụng lời nói căm giận khi thảo luận về nó là đủ. Và bạn có thể trích dẫn lời nói căm giận để trêu đùa về nó. Sự khó khăn của việc đưa ra những quyết định như vậy là lý do tại sao công ty đang gặp khó khăn trong việc tự động hóa quy trình, tuy nhiên Bickert lạc quan rằng các thuật toán sẽ sớm có thể xử lý lời nói căm giận hiệu quả.
Ngoài việc mở màn về việc kiểm duyệt nội dung, Facebook cũng sẽ cho phép mọi người khiếu nại về việc cấm đăng bài viết cá nhân; trước đây họ chỉ có thể làm điều này đối với toàn bộ Trang. Bắt đầu với việc gỡ bỏ liên quan đến nội dung nude hoặc hoạt động tình dục, lời nói căm xúc và bạo lực đồ họa, Facebook hứa hẹn sẽ giải quyết và xem xét nhanh chóng, lý tưởng là trong vòng 24 giờ. Giám đốc pháp lý của EFF, Corynne McSherry, nói rằng quy trình khiếu nại nhanh hơn và minh bạch hơn không chỉ là chào đón mà còn là cần thiết. "Dù có cố gắng nhưng chúng ta vẫn sẽ thấy rất nhiều trường hợp gỡ bỏ không đúng," bà nói. "Một khi bạn tham gia vào việc kiểm duyệt tư nhân, khó có thể đưa ra những phân biệt đó."
Quy chuẩn cộng đồng của Facebook đã thu hút sự chỉ trích và xem xét trong nhiều năm. Năm 2015, phụ nữ bày tỏ sự phẫn nộ khi ảnh cho con bú của họ bị cấm, và cộng đồng nữ hoàng vàng nổi dậy phản đối chính sách "tên thật" của Facebook. Đáp lại, Facebook chia sẻ một cấp độ chi tiết trước đây chưa từng thấy về cách nó kiểm soát nội dung, ví dụ như vụ nghi án về việc cho con bú, với những dòng như, "Chúng tôi cũng hạn chế một số hình ảnh của vú nữ nếu chúng bao gồm núm vú, nhưng chúng tôi luôn cho phép ảnh của phụ nữ thực hiện việc cho con bú hoặc hiển thị vú với vết sẹo sau phẫu thuật cắt bỏ vú."
Lúc đó, những quy tắc này rộng rãi và chi tiết hơn bất cứ điều gì mà Facebook từng chia sẻ. Nhưng ba năm và hai cuộc điều trần Quốc hội rối bời sau đó, chúng trông rất mơ hồ và dễ bị hiểu lầm, đặc biệt là khi lo ngại hiện nay về cả sự kiểm duyệt và nội dung không mong muốn trên Facebook.
Tuần trước, trước khi công bố, công ty đã cho phép một số phóng viên tham gia cuộc họp hai tuần một lần của Hội đồng Tiêu chuẩn Nội dung của mình. Nhóm này chịu trách nhiệm đặt ra và xem xét chính sách nội dung. Các thành viên của nó là nhân viên của Facebook, nhiều trong số họ có lịch sử trong chính sách công cộng, luật pháp và chuyên môn về các lĩnh vực nhạy cảm như tội ác tình dục. Chúng tôi không được phép chia sẻ cuộc trò chuyện thực tế trong phòng, vì có thể liên quan đến các vấn đề chính sách đang thay đổi. Nhưng chúng tôi được biết đây là một buổi họp bình thường, liên quan đến những vấn đề như lời nói căm giận, khủng bố và tội phạm tình dục. Dẫn dắt bởi Bickert và Mary DeBree, người đứng đầu nhóm chính sách nội dung, khoảng 20 nhân viên Facebook trong một phòng họp ở Menlo Park được tham gia qua video bởi các đội ở DC, Dublin và các địa điểm khác, bao gồm một người tham gia duy nhất ở phòng họp ở New York với tên gọi "Death and Co."
Cuộc họp bao gồm hai loại công việc: các mục "đầu tiên" là những nơi có thể cần điều chỉnh chính sách, và các "đề xuất" liên quan đến kết quả từ các nhóm làm việc giải quyết vấn đề cụ thể, thường được thảo luận với các chuyên gia bên ngoài và các nhóm quan tâm.
Phù hợp với tinh thần dữ liệu của Facebook, các vấn đề được thảo luận được hỗ trợ bởi nghiên cứu đáng kể vào sự tinh tế của vấn đề, kết quả được trình bày trên màn hình lớn ở bên cạnh phòng họp. Một đề xuất, ví dụ, xử lý một vấn đề đặc biệt gây tranh cãi. Nhóm đang xem xét đề xuất bốn lựa chọn, trong đó một trong số đó là để chính sách giữ nguyên. Sau một cuộc thảo luận sôi nổi, một thỏa thuận nảy ra rằng việc áp dụng lựa chọn có vẻ lý tưởng về nguyên tắc sẽ dễ hiểu lầm trong thực tế. Bickert đã đưa ra quyết định cuối cùng là không thay đổi chính sách. Khi được hỏi liệu Facebook có thoải mái khi đưa ra quyết định cuối cùng về những vấn đề như vậy, Bickert trả lời là có, mặc dù bà làm rõ rằng chính sách luôn linh hoạt và bà hoan nghênh phản hồi từ bên ngoài.
Một điều nổi bật từ cuộc trò chuyện là Facebook coi tất cả các tài sản của mình đều phải tuân thủ chính sách, không chỉ ứng dụng chính của nó. "Các chính sách áp dụng không phụ thuộc vào việc nó được chia sẻ với một người hay nhiều người. Và chúng tôi thực sự nhận thấy có báo cáo đến chúng tôi thông qua Messenger," bà nói.
Từ góc độ pháp lý, Facebook không có nghĩa vụ viết hoặc thi hành bất kỳ chính sách nào. Nó được bảo vệ khỏi hậu quả của lời nói của người dùng bởi một quy định của đạo luật 1996 định nghĩa các nền tảng truyền thông xã hội là một "cảng an toàn" cho lời nói. Quy định "Mục 230" này phân biệt Facebook với một nhà xuất bản đứng sau nội dung của mình. Tuy nhiên, Facebook biết rằng nó phải vượt qua mức tối thiểu pháp lý để tránh rơi vào một ổ rắn của quấy rối, bắt nạt, nội dung tình dục và buôn súng. Cũng có một sự nói lớn ngày càng nhiều muốn loại bỏ Mục 230 ngay bây giờ khi các công ty khởi nghiệp internet mà quy định này được thiết kế để giúp họ đã trở thành khổng lồ.
Cuối cùng, Facebook phải đối mặt với người dùng của mình, và sự minh bạch là một bước tiến trong hướng đó. Thử nghiệm về sự minh bạch này thực sự sẽ là thử nghiệm về sự phản ứng của Facebook đối với phản hồi mà nó nhận được, và mức độ mà những khát vọng về quản lý nội dung của Facebook phản ánh đúng với hiện thực. Hơn nữa, việc quy định nội dung được phép chỉ là một khía cạnh của thách thức nội dung của Facebook; sự minh bạch tương tự về các thuật toán quyết định thứ hạng trong News Feed của bạn cũng có thể quan trọng ngang ngửa.
Dễ dàng chế giễu sự chính xác của hướng dẫn của Facebook. Nhưng cân bằng giữa các tiêu chuẩn cộng đồng với tự do ngôn luận cho 2,2 tỷ người là một nhiệm vụ khổng lồ - một nhiệm vụ chúng ta vẫn chưa biết liệu có thể thực hiện được hay không. Bickert và Facebook tin rằng có thể. Và bây giờ chúng ta có thể tự kiểm tra xem họ đang thực hiện như thế nào.
- Khi Facebook cập nhật các tiêu chuẩn cộng đồng của mình vào năm 2015, công ty chỉ có 1,4 tỷ người dùng. Ngày nay, nó có 2,2 tỷ người dùng.
- Việc giữ hình ảnh không đúng và các vụ đổ đầu trên Facebook là một công việc kinh khủng được thực hiện bởi một lực lượng lao động toàn cầu vô hình.
- Sự đẩy mạnh về minh bạch của Facebook diễn ra sau hai năm đau đớn tại tập đoàn mạng xã hội này.
