Độc quyền: Facebook Tiết Lộ Về Tin Giả

News Feed, thuật toán làm nên cốt lõi của Facebook, giống như một hệ thống tưới tiêu khổng lồ cho thông tin của thế giới. Khi hoạt động đúng đắn, nó cung cấp dưỡng chất cho tất cả những loại cây mà mọi người khác nhau thích ăn. Đôi khi, tuy nhiên, nó được chuyển hướng hoàn toàn đến các trang trại mía đường trong khi cánh đồng lúa mạch và cây hạt hạnh nở chết. Hoặc nó bị ô nhiễm vì tên lửa Nga và những đứa trẻ Macedonia ném vào viên LSD và chúng dơi chết.
Trong nhiều năm, cách News Feed hoạt động khá mờ ám. Toàn bộ công ty được bao phủ bởi bí mật. Ít điều về thuật toán được giải thích và nhân viên đã bị sa thải vì nói không đúng lúc với báo chí. Bây giờ Facebook đâu đâu cũng có mặt. Mark Zuckerberg đã lên tiếng trước Quốc hội Châu Âu qua livestream, đối mặt với những câu hỏi khó khăn từ phóng viên và hỗ trợ công nghệ cho Thượng viện. Các giám đốc cấp cao đang tweet. Công ty đang chạy quảng cáo trong thời gian NBA playoffs.
Trong tinh thần đó, Facebook hôm nay đưa ra ba thông báo quan trọng về tin giả, mà MYTOUR đã có cơ hội nhìn trước và duy nhất. Ngoài ra, MYTOUR đã có cuộc trò chuyện đa dạng với tám quản lý sản phẩm và kỹ sư thường ít nói chúng làm việc trên News Feed để đặt câu hỏi chi tiết về cách các kênh, đập, và sông mà họ quản lý hoạt động.
Thông báo mới đầu tiên: Facebook sẽ sớm đưa ra yêu cầu đề xuất từ các nhà nghiên cứu hứng thú nghiên cứu về tin giả trên nền tảng. Những nhà nghiên cứu được chấp nhận sẽ nhận được dữ liệu và tiền bạc; công chúng sẽ nhận được, trong tư duy lý tưởng, câu trả lời khó kiếm về mức độ tin giả thực sự tồn tại và nó quan trọng như thế nào. Thông báo thứ hai là sự ra mắt của một chiến dịch giáo dục công cộng sẽ sử dụng đỉnh trang chính của Facebook, có lẽ là bất động sản có giá trị nhất trên Internet. Người dùng sẽ được dạy về tin giả là gì và cách họ có thể ngăn chặn sự lan truyền của nó. Facebook biết rằng nó đang ở trong một cuộc chiến, và muốn dạy nhân dân cách tham gia vào phe chiến đấu của mình. Thông báo thứ ba—và cái mà công ty có vẻ phấn khích nhất là việc phát hành một video gần 12 phút mang tên “Đối Mặt Với Sự Thật,” một tiêu đề ngụ ý cả về chủ đề và tông lỗi.
Bộ phim, được nhúng ở dưới đáy bài viết này, có sự tham gia của các quản lý sản phẩm và kỹ sư đang chiến đấu chống lại tin giả, và được đạo diễn bởi Morgan Neville, người đã đoạt giải Oscar cho 20 Feet from Stardom. Bộ phim tài liệu này nói về người backup singer, và bản thân nó cũng thế. Đây là cái nhìn hiếm hoi về những người quản lý News Feed: những nhân viên mà bạn chưa bao giờ nghe đến và chạy có thể là thuật toán mạnh mẽ nhất trên thế giới. Trong Stardom, Neville kể câu chuyện qua cuộc phỏng vấn chân dung và đoạn phim về những người chủ nhân của mình nhảy múa trên sân khấu. Bộ phim này được kể qua cuộc phỏng vấn chân dung và đoạn phim về những người chủ nhân của mình nhìn chằm chằm vào màn hình của họ.
Ở nhiều mặt, News Feed là Facebook: Đó là một thuật toán bao gồm hàng nghìn yếu tố quyết định liệu bạn có thấy ảnh em bé, bài nghiên cứu, bài đăng vô nghĩa, hay tuyên truyền Nga. Facebook thường giữ thông tin về cách Quân đội giữ Fort Knox. Điều này khiến bất kỳ thông tin nào về nó trở nên có giá trị, làm cho bộ phim trở nên có giá trị. Và ngay từ đầu, Neville tín hiệu rằng anh ta không chỉ đơn giản là làm mát một bát propaganda bạc hà. Âm nhạc mở đầu có chút bí ẩn, dẫn vào giọng của John Dickerson, của CBS News, thì thầm về những câu chuyện giả mạo đã phát triển trên nền tảng trong cuộc bầu cử năm 2016. Những đầu bản tin quan trọng vang lên, và nhân viên Facebook, một người mang skateboard và một người mang túi New Yorker, di chuyển một cách có phương pháp lên cầu thang vào trụ sở.
Thông điệp rõ ràng: Facebook biết nó đã làm sai, và muốn tất cả chúng ta biết nó biết nó đã làm sai. Công ty đang thú nhận và xin lỗi. “Đó là một điều rất khó khăn và đau đớn,” Adam Mosseri, người từng điều hành News Feed cho đến gần đây, khi ông chuyển sang quản lý sản phẩm tại Instagram. “Nhưng tôi nghĩ rằng sự kiểm tra là một điều hữu ích theo cách cơ bản.”
Sau lời xin lỗi, bộ phim chuyển sang phần giải thích. Các nhóm sản phẩm và kỹ sư giải thích tầm quan trọng của việc chống lại tin giả và một số phức tạp của nhiệm vụ đó. Người xem được đưa đi thăm văn phòng của Facebook, nơi mọi người dường như đều làm việc chăm chỉ và có một bức tranh tường lớn của Alan Turing được làm bằng domino. Ít nhất là chín lần trong suốt bộ phim, nhân viên khác nhau gãi cằm.
Một cách kỳ lạ, những khoảnh khắc làm sáng tỏ và làm sôi động nhất trong “Đối Mặt Với Sự Thật” liên quan đến bảng trắng. Có một đoạn video ở phút ba rưỡi khi Eduardo Ariño de la Rubia, một quản lý khoa học dữ liệu cho News Feed, vẽ một lưới với trục X và Y. Ông ấy có tính cá nhân và thân thiện, và ông ấy giải thích rằng các bài viết trên Facebook có thể được chia thành bốn loại, dựa trên ý định của tác giả và tính chân thật của nội dung: trong trắng và giả mạo; trong trắng và đúng; đầy mưu mô và giả mạo; đầy mưu mô và đúng. Điều cuối cùng có thể là loại gây phiền hình sự nhất—bao gồm các ví dụ về số liệu được lựa chọn cẩn thận.
Một vài phút sau đó, Dan Zigmond—tác giả của cuốn sách Chế Độ Ăn của Đức Phật, nhân tiện—giải thích bức tranh ba phần thông qua đó các bài viết phiền hại được đối phó: loại bỏ, giảm bớt, thông tin. Những điều kinh khủng vi phạm Điều khoản Dịch vụ của Facebook sẽ bị loại bỏ. Clickbait sẽ giảm bớt. Nếu một câu chuyện dường như khó tin với các nhà kiểm chứng sự thật, độc giả sẽ được thông tin. Có lẽ họ sẽ được xem những câu chuyện liên quan, hoặc thêm thông tin về nhà xuất bản. Điều này giống như một người cha không lấy đi thuốc lá mà lại để một cuốn sách về ung thư phổi rơi xuống, và sau đó ngừng đưa họ đến cửa hàng thuốc.
Thông điệp trung tâm của bộ phim là Facebook thực sự quan tâm sâu sắc đến tin giả. Công ty đã chậm nhận ra sự ô nhiễm đang tích tụ trong News Feed, nhưng hiện nay nó cam kết làm sạch sẽ. Không chỉ có Facebook quan tâm, mà còn có những người trẻ, tận tụy đang làm việc trên đó. Họ cũng rất thông minh. John Hegeman, người hiện đang điều hành News Feed, đã giúp xây dựng hệ thống bán đấu giá Vickrey-Clark-Groves cho quảng cáo Facebook, biến nó thành một trong những doanh nghiệp có lợi nhuận nhất mọi thời đại.
Tuy nhiên, câu hỏi đối với Facebook không còn là liệu nó quan tâm hay không. Câu hỏi là liệu vấn đề có thể được giải quyết hay không. News Feed đã được điều chỉnh, từ nhiều năm nay, để tối đa hóa sự chú ý của chúng ta và ở nhiều cách là sự phẫn nộ của chúng ta. Những tính năng giống nhau đã khuyến khích các nhà xuất bản tạo ra clickbait cũng là những tính năng cho phép tin giả bay lượn. News Feed đã nuôi dưỡng các trang trại đường mật suốt một thập kỷ. Nó có thực sự giúp cây cải, hoặc thậm chí là táo, phát triển được không?
Để cố gắng giải quyết câu hỏi này, vào thứ Hai, tôi đã gặp gỡ với chín ngôi sao của bộ phim, ngồi xung quanh một bàn chữ nhật trong phòng họp của Facebook và giải thích sự phức tạp của công việc của họ. (Bản ghi của cuộc trò chuyện có thể được đọc tại đây.) Công ty đã thông báo mọi loại từ tháng 12 năm 2016 về cuộc chiến của mình chống lại tin giả. Nó đã hợp tác với các nhà kiểm chứng sự thật, hạn chế khả năng của các trang web tin giả kiếm tiền từ những bài viết rác của họ và tạo ra hệ thống học máy để chống lại clickbait. Và vì vậy, tôi bắt đầu cuộc phỏng vấn bằng cách hỏi điều gì quan trọng nhất.
Câu trả lời, dường như, là đơn giản và phức tạp. Phần đơn giản là Facebook đã nhận ra rằng việc chỉ đơn giản áp dụng các quy tắc của mình—"chặn và chống lại," Hegeman gọi đó—đã đẩy nhiều người bán tin giả ra khỏi nền tảng. Những người lan truyền tin đồn thường cũng thường tạo ra tài khoản giả mạo hoặc vi phạm các tiêu chuẩn cộng đồng cơ bản. Điều đó giống như một lực lượng cảnh sát thành phố đàn áp buôn bán ma túy bằng cách bắt giữ những người đang lôi loitering.
Trong tương lai, tuy nhiên, Facebook biết rằng các hệ thống máy học phức tạp là công cụ tốt nhất. Để thực sự ngăn chặn tin giả, bạn cần phải tìm tin giả, và bạn cần máy móc để làm điều đó vì không có đủ con người xung quanh. Vì vậy, Facebook đã bắt đầu tích hợp các hệ thống—được sử dụng bởi Instagram trong nỗ lực chống lại sự tàn ác—dựa trên các bộ dữ liệu được lựa chọn bởi con người và một sản phẩm máy học có tên là DeepText.
Dưới đây là cách nó hoạt động. Con người, có thể là hàng trăm người, duyệt qua hàng chục hoặc hàng trăm nghìn bài viết để xác định và phân loại clickbait—"Facebook để tôi trong một phòng với chín kỹ sư và bạn sẽ không bao giờ tin điều gì xảy ra tiếp theo." Đây là clickbait; cái này không phải. Cuối cùng, Facebook phóng các thuật toán máy học của mình lên dữ liệu mà con người đã sắp xếp. Các thuật toán học các mẫu từ ngôn ngữ mà con người coi là clickbait, và chúng học cách phân tích các kết nối xã hội của các tài khoản đăng bài đó. Cuối cùng, với đủ dữ liệu, đủ đào tạo và đủ điều chỉnh, hệ thống máy học nên trở nên chính xác như những người đã đào tạo nó—và nhanh hơn rất nhiều.
Ngoài việc xác định clickbait, công ty cũng sử dụng hệ thống để cố gắng xác định tin giả. Vấn đề này khó khăn hơn: Thứ nhất, nó không đơn giản như việc phân tích một đoạn văn bản đơn giản, như một tiêu đề. Thứ hai, như Tessa Lyons, một quản lý sản phẩm giúp giám sát dự án, giải thích trong cuộc phỏng vấn của chúng tôi, sự thật khó xác định hơn clickbait. Vì vậy, Facebook đã tạo ra một cơ sở dữ liệu với tất cả các câu chuyện được tổ chức bởi các tổ chức kiểm chứng sự thật mà nó hợp tác từ cuối năm 2016. Sau đó, nó kết hợp dữ liệu này với các tín hiệu khác, bao gồm ý kiến của độc giả, để cố gắng đào tạo mô hình. Hệ thống cũng tìm kiếm sự trùng lặp, bởi vì, như Lyons nói, “điều rẻ nhất hơn việc tạo tin giả là sao chép tin giả.” Facebook không, tôi được nói trong cuộc phỏng vấn, thực sự đọc nội dung của bài viết và cố gắng xác minh nó. Điều đó chắc chắn là một dự án cho một ngày khác.
Thú vị là, những nhân viên của Facebook giải thích, tất cả clickbait và tin giả được xử lý giống nhau, không phụ thuộc vào lĩnh vực. Hãy xem ba câu chuyện này đã lan truyền trên nền tảng trong năm qua.
“Nhân viên phòng chứa xác bị hỏa táng nhầm lúc đang ngủ trưa.” “Tổng thống Trump ra lệnh hành quyết năm con gà được tha thứ bởi Obama.” “Trump gửi cảnh sát liên bang—Lãnh đạo Thành phố An toàn bị bắt giữ.”
Cái đầu tiên là vô hại; cái thứ hai liên quan đến chính trị, nhưng nó chủ yếu là vô hại. (Thực tế là khá hài hước.) Cái thứ ba có thể làm sợ người thật và khiến người biểu tình xuống đường. Lý thuyết, Facebook có thể xử lý mỗi loại tin giả này một cách khác nhau. Nhưng theo những nhân viên của News Feed mà tôi nói chuyện, nó không phải là như vậy. Tất cả các tiêu đề đều đi qua cùng một hệ thống và được đánh giá theo cùng một cách. Trên thực tế, có vẻ tất cả ba ví dụ này đã trải qua và bắt đầu lan truyền.
Tại sao Facebook không đặt tin tức chính trị dưới sự xem xét nghiêm túc? Một phần, Lyons nói, vì ngăn chặn những câu chuyện vớ vẩn giúp công ty ngăn chặn những câu chuyện quan trọng. Mosseri thêm rằng việc đánh giá các loại thông tin sai lệch khác nhau có thể là điều mà công ty sẽ xem xét sau này. “Nhưng với loại công việc tính chất này, tôi nghĩ rằng quan trọng là hoàn thành cơ bản một cách tốt, đạt được tiến triển mạnh mẽ ở đó, và sau đó bạn có thể trở nên phức tạp hơn,” ông nói.
Đằng sau tất cả điều này là câu hỏi lớn hơn. Việc thêm các hệ thống mới lên trên thuật toán cốt lõi làm nền tảng của News Feed có tốt hơn không? Hoặc có thể là tốt hơn nếu thay đổi toàn bộ News Feed một cách đột ngột?
Sau khi thảo luận với Mosseri về vấn đề này, tôi đã hỏi ông về nó. Dòng tin tức dựa trên hàng trăm, hoặc có thể hàng nghìn, yếu tố, và như bất kỳ ai đã chạy một trang công khai biết, thuật toán đều thưởng cho sự phẫn nộ. Một câu chuyện có tiêu đề 'Donald Trump là một tai nạn trên trí tuệ nhân tạo,' sẽ lan truyền trên Facebook. Một câu chuyện có tiêu đề 'Chính quyền Donald Trump bắt đầu nghiên cứu trí tuệ nhân tạo' sẽ đi đâu cũng không. Cả hai câu chuyện có thể đều đúng, và tiêu đề đầu tiên không phải là clickbait. Nhưng nó kích thích cảm xúc của chúng ta. Trong nhiều năm, News Feed—giống như các tờ báo đời thường—đã rất hậu thuẫn cho loại câu chuyện này, một phần vì thứ hạng dựa nhiều vào các yếu tố đơn giản tương quan với sự phẫn nộ và phản ứng cảm xúc ngay lập tức.
Bây giờ, theo Mosseri, thuật toán bắt đầu xem xét nhiều yếu tố nghiêm túc hơn liên quan đến chất lượng câu chuyện, không chỉ làm dấy lên cảm xúc. Trong cuộc phỏng vấn, ông chỉ ra rằng thuật toán hiện tại đánh giá thấp giá trị của 'những tương tác nhẹ nhàng như click và like.' Lược đồ hiện đang ưu tiên 'những điều nặng hơn như bạn nghĩ chúng ta sẽ xem một video trong bao lâu? Hoặc bạn nghĩ chúng ta sẽ đọc một bài báo trong bao lâu? Hoặc bạn nghĩ rằng bài viết này có thông tin chất lượng không nếu chúng tôi hỏi bạn?' News Feed, trong một thế giới mới, có thể đánh giá cao hơn một bài viết về Trump và trí tuệ nhân tạo, thay vì chỉ là một bài viết chửi bới.
Câu hỏi tồn tại nhất đối với Facebook có lẽ là liệu bản chất kinh doanh của nó có không thể tránh khỏi việc lan truyền tin giả hay không. Facebook kiếm tiền bằng cách bán quảng cáo có đối tượng, điều này có nghĩa là nó cần biết cách nhắm đến người dùng. Nó thu thập nhiều dữ liệu nhất có thể về mỗi người dùng. Dữ liệu này, lần lượt, có thể được quảng cáo sử dụng để tìm và nhắm đến những người hâm mộ tiềm năng sẽ đón nhận thông điệp của họ. Điều này hữu ích nếu một nhà quảng cáo như Pampers muốn bán tã dành cho phụ huynh mới sinh. Nhưng nó không tốt nếu nhà quảng cáo là người truyền tin giả muốn tìm người dễ tin có thể truyền bá thông điệp của mình. Trong một podcast với Bloomberg, Cyrus Massoumi, người đã tạo ra một trang web mang tên Mr. Conservative, lan truyền nhiều tin giả khác nhau trong cuộc bầu cử năm 2016, giải thích cách ông hoạt động.
Trả lời câu hỏi về vấn đề này, Ariño de la Rubia lưu ý rằng công ty thực sự đang theo đuổi mọi trang nào nghi ngờ đăng tin giả mạo. Massoumi, ví dụ, bây giờ nói rằng ông không thể kiếm tiền từ nền tảng này nữa. “Có phải có viên đạn bạc không?” Ariño de la Rubia hỏi. “Không có. Đó là một cuộc đối đầu, và tin sai lệch có thể đến từ bất kỳ nơi nào mà con người chạm vào và con người có thể chạm vào nhiều nơi.”
Đối diện với câu hỏi liên quan đến khả năng đóng cửa các Nhóm chính trị mà người dùng tự tham gia, Mosseri lưu ý rằng điều này thực sự sẽ làm dừng lại một số sự lan truyền tin giả. Nhưng, ông nói, “bạn cũng sẽ giảm một loạt các cuộc thảo luận về công dân lành mạnh. Và bây giờ bạn đang thực sự phá hủy nhiều giá trị hơn là vấn đề mà bạn đang tránh.”
Liệu Facebook có nên được hoan nghênh vì những nỗ lực của nó? Tất nhiên. Sự minh bạch là tốt, và sự quan sát từ phía các nhà báo và học giả (hoặc ít nhất là hầu hết các học giả) sẽ là điều tốt. Nhưng với một số nhà phân tích chặt chẽ của công ty, quan trọng là lưu ý rằng tất cả những điều này đều đến một chút muộn. “Chúng ta không hoan nghênh Jack Daniels vì đã đặt nhãn cảnh báo về việc uống rượu khi mang thai. Và chúng ta không hoan nghênh GM vì đã đặt dây an toàn và túi khí vào ô tô của họ,” nói Ben Scott, một cố vấn cấp cao tại Viện Công nghệ Mở tại Quỹ New America. “Chúng ta vui mừng vì họ làm điều đó, nhưng đó là điều đi kèm với lĩnh vực của những doanh nghiệp đó.”
Cuối cùng, câu hỏi quan trọng nhất cho Facebook là làm thế nào những thay đổi này hoạt động. Có đủ sạch sẽ để mọi người cảm thấy an toàn khi bơi lội không? Facebook biết rằng họ đã loại bỏ nhiều thứ vô nghĩa từ nền tảng. Nhưng điều gì sẽ xảy ra trong cuộc bầu cử nước Mỹ vào mùa thu này? Điều gì sẽ xảy ra trong cuộc bầu cử Mexico vào mùa hè này?
Quan trọng nhất là điều gì sẽ xảy ra khi vấn đề trở nên phức tạp hơn? Tin giả chỉ sẽ trở nên phức tạp hơn, khi nó chuyển từ văn bản sang hình ảnh, video, thậm chí là thực tế ảo và, một ngày nào đó, có thể là giao diện trí não máy tính. Facebook biết điều này, đó là lý do tại sao công ty đang nỗ lực giải quyết vấn đề này và nói nhiều như vậy. “Hai tỷ người trên toàn thế giới đang dựa vào chúng tôi để khắc phục điều này,” Zigmond nói.
Facebook đang triển khai chiến dịch truyền thông ủng hộ Facing Facts bao gồm mua quảng cáo và làm việc với Brand Lab của MYTOUR.
Những điều Tuyệt vời khác từ MYTOUR
- Phénomène YouTube Poppy có đạo nhái phong cách từ ngôi sao khác không?
- Vật lý—và vật lý—của việc biểu diễn xiên cực
- Tại sao một chiếc nồi nướng không khí trên bàn làm việc phong cách và đắt tiền không thể vượt qua một chiếc kệ nướng đơn giản?
- Phương tiện của tương lai có hai bánh, tay lái và là chiếc xe đạp
- Blockchains an toàn và hơi khó hiểu, nhưng đây là những điều bạn cần biết
- Muốn biết thêm? Đăng ký nhận bản tin hàng ngày của chúng tôi và đừng bao giờ bỏ lỡ những câu chuyện mới và tuyệt vời nhất của chúng tôi
