
Trong những giờ đầu của ngày 25 tháng 8 năm 2017, một nhóm nổi dậy rách rưới từ cộng đồng người Rohingya, một tôn giáo thiểu số Hồi giáo ở Myanmar, tấn công các trại lính ở phía tây bắc đất nước, làm chết 12 người. Lực lượng an ninh nhanh chóng trả đũa bằng một chiến dịch đốt làng và tàn sát hàng loạt kéo dài nhiều tuần. Trong khi người Rohingya chết hàng ngàn, lãnh đạo quân đội Myanmar đã sử dụng Facebook.
Một bài đăng từ tư lệnh quân đội cam kết giải quyết “vấn đề dân tộc Bengali,” sử dụng từ xúc phạm người Rohingya ở Myanmar. Một tướng khác viết để khen ngợi “nỗ lực xuất sắc để khôi phục hòa bình khu vực,” nhận xét rằng “chủng tộc không thể bị nuốt chửng bởi đất đai mà chỉ bởi một chủng tộc khác.” Báo cáo điều tra của Liên Hợp Quốc về bạo lực sau này đã trích dẫn bài đăng của tư lệnh quân đội là gợi ý về tội diệt chủng, và lưu ý về lịch sử của các bài đăng trên Facebook kích động sự căm ghét chống lại người Rohingya ở Myanmar. Chủ tịch nhiệm vụ nói với các nhà báo rằng trang web đã đóng một vai trò “quyết định” trong cuộc khủng hoảng.
Tại Quốc Hội Hoa Kỳ vào tháng 4, Thượng nghị sĩ Jeff Flake hỏi Giám đốc điều hành Facebook Mark Zuckerberg làm thế nào công ty của ông có thể tránh được vai trò đó. Ông tỷ mỉ tỏ ra không biểu cảm vàng 33 tuổi kia lưu ý rằng ông đã tuyển thêm nhân viên biết tiếng Miến Điện. Sau đó, ông bày tỏ quan điểm về Trí Tuệ Nhân Tạo. “Trong dài hạn, việc xây dựng các công cụ Trí Tuệ Nhân Tạo sẽ là cách có thể mở rộng để nhận diện và loại bỏ hầu hết nội dung có hại này,” ông nói. Trong hai ngày điều trần tại Quốc Hội, Zuckerberg nhắc đến Trí Tuệ Nhân Tạo hơn 30 lần. Ông nói rằng công nghệ này sẽ đấu tranh chống tin giả, ngăn chặn quảng cáo phân biệt đối xử dựa trên chủng tộc hoặc giới tính, và làm suy yếu tuyên truyền khủng bố.
Facebook đã đối mặt với một loạt các cáo buộc và scandals chóng mặt trong năm vừa qua. Chúng bao gồm việc giúp cho sự can thiệp của Nga vào bầu cử và phân biệt đối xử trong việc tuyển dụng, ngoài việc có liên quan đến vụ diệt chủng tại Myanmar. Thứ Hai, một báo cáo của Thượng viện cho biết hoạt động của Nga trên các tài sản của Facebook lớn hơn nhiều so với những gì trước đây được biết, và gợi ý rằng công ty đã đánh lừa Quốc hội bằng cách baguấn giảm sự ý thức rằng các tay chơi Nga đã sử dụng sản phẩm của công ty để làm giảm lượng bỏ phiếu trong cuộc bầu cử tổng thống năm 2016.
Nhiều lời xin lỗi từ Facebook thể hiện một chủ đề chung: Trí tuệ nhân tạo sẽ giúp giải quyết các vấn đề đang diễn ra trên nền tảng của công ty. Mike Schroepfer, giám đốc công nghệ của công ty, cho biết công nghệ này là cách duy nhất để ngăn chặn những hành động xấu xảy ra trên dịch vụ. Với 2.3 tỷ người dùng thường xuyên, việc có tất cả mọi thứ được xem xét bởi con người sẽ tốn kém và kỳ lạ. “Tôi nghĩ rằng hầu hết mọi người sẽ cảm thấy không thoải mái với điều đó,” Schroepfer nói, lướt qua khả năng người dùng có thể cảm thấy lạ lẫm khi thuật toán xem xét mọi bài đăng của họ. “Với tôi, Trí Tuệ Nhân Tạo là công cụ tốt nhất để thực hiện chính sách — thực sự tôi không biết phương án thay thế là gì.”

Dựa vào Trí Tuệ Nhân Tạo là một sự đánh cược. Thuật toán đã chứng minh khả năng giúp kiểm soát Facebook, nhưng chúng còn rất xa là giải pháp toàn diện — và có thể sẽ không bao giờ là. Công ty đã đạt được thành công lớn trong việc phát hiện và chặn khiêu dâm và hình ảnh không đẹp. Nhưng việc đào tạo phần mềm để giải mã văn bản một cách đáng tin cậy khó khăn hơn nhiều so với phân loại hình ảnh. Để kiềm chế sự quấy rối, bài phát biểu căm hận và các lý thuyết âm mưu nguy hiểm trên nền tảng rộng lớn của mình, Facebook cần các hệ thống Trí Tuệ Nhân Tạo có khả năng hiểu rõ sự thay đổi tinh tế của hơn 100 ngôn ngữ khác nhau. Bất kỳ hạn chế nào cần phải được bắt bởi khoảng 15.000 người xem xét của Facebook, nhưng ở quy mô mạng xã hội, không rõ việc quản lý công việc của họ sẽ như thế nào. Như những diễn biến ở Myanmar đã chỉ ra, những khoảng trống trong mạng lưới thực thi có vẻ nhỏ từ Menlo Park có thể trở nên nguy hiểm đối với những người mà thế giới của họ đang được tạo hình bởi Facebook.
Bộ Dò Tìm Thịt
Sự đẩy mạnh của Facebook để tự động hóa việc kiểm duyệt nội dung của mình bắt đầu từ sáng kiến của một giám đốc quảng cáo, không phải là chuyên gia trong hội thoại trực tuyến. Tanton Gibbs đã được thuê làm giám đốc kỹ thuật vào năm 2014 để làm việc về công nghệ quảng cáo, như anh từng làm tại Microsoft và Google. Sau khi nghe về những thách thức trong việc kiểm duyệt của Facebook, anh ấy đề xuất một cách tiếp cận chủ yếu dựa trên thuật toán. Facebook đã áp dụng công cụ có tên là PhotoDNA được phát triển bởi Microsoft và Đại học Dartmouth để chặn hình ảnh bạo lực trẻ em đã biết đến, nhưng không triển khai phần mềm phân tích hình ảnh hoặc Trí Tuệ Nhân Tạo một cách rộng rãi hơn. “Họ chỉ sử dụng con người để xem xét các báo cáo về những thứ như khiêu dâm, bài phát biểu căm hận hoặc bạo lực đồ họa,” Gibbs nói. “Tôi nhìn thấy rằng chúng ta nên tự động hóa điều đó.” Facebook bổ nhiệm Gibbs làm trưởng nhóm mới, đặt tại Seattle, ban đầu được biết đến với tên CareML.
Nhóm mới nhanh chóng chứng minh giá trị của mình. Gibbs và các kỹ sư của anh ấy chấp nhận một công nghệ gọi là deep learning, một phương pháp đào tạo thuật toán với dữ liệu mẫu mà gần đây đã trở nên mạnh mẽ hơn nhiều. Google đã chứng minh sức mạnh của công nghệ này khi phát triển phần mềm đã học được nhận diện mèo. Một cách im lặng hơn, nhóm của Gibbs đã dạy các thuật toán deep learning nhận diện khiêu dâm và hình ảnh người trần truồng. Ban đầu, phần mềm này đã xem xét hình ảnh được người dùng Facebook gửi. Sau một năm rưỡi, Gibbs đã được phép để hệ thống của mình đánh dấu nội dung được gửi mới trước khi ai đó báo cáo. Facebook cho biết 96% hình ảnh người lớn và người trần truồng hiện được phát hiện tự động và gỡ bỏ trước khi ai đó báo cáo.
Nhưng vẫn còn rất nhiều hình ảnh người trần truồng thoát khỏi các thuật toán của Facebook. Công ty cho biết họ đã gỡ bỏ 30.8 triệu hình ảnh và video về khiêu dâm hoặc hoạt động tình dục trong quý ba năm 2018; điều này có nghĩa là thuật toán không bắt được 1.3 triệu hình ảnh như vậy. Trong thực tế, Facebook ước tính rằng phần trăm lượt xem có chứa hình ảnh người trần truồng hoặc nội dung tình dục đã tăng gần gấp đôi trong 12 tháng kết thúc vào tháng 9, lên khoảng 9 trong mỗi 10.000 lượt xem. “Có nhiều hình ảnh người trần truồng được đăng trên Facebook, và hệ thống của chúng tôi không bắt kịp tất cả nhanh chóng để ngăn chặn sự tăng lên trong lượt xem,” Facebook nói trong báo cáo về việc thực thi tiêu chuẩn cộng đồng của họ gần đây nhất. Mức độ đăng và xem nhưng không được phát hiện hoặc báo cáo là không thể biết được.
Tuy nhiên, thành công của dự án của Gibbs trong việc chống lại khiêu dâm đã trở thành điểm nói chuyện yêu thích của các nhà lãnh đạo Facebook giới thiệu tiềm năng của Trí Tuệ Nhân Tạo để dọn dẹp dịch vụ của họ. Đây là bằng chứng là một hệ thống miễn dịch theo thuật toán có thể giúp bảo vệ người dùng Facebook khỏi nội dung có hại — và công ty khỏi hậu quả của việc lưu trữ nó. Facebook nói rằng hơn một nửa nội dung căm hận bị gỡ bỏ khỏi nền tảng trong ba tháng gần đây đầu tiên đã được thuật toán đánh dấu trước tiên, gấp đôi so với tỷ lệ trước đó. Khoảng 15% bài đăng bị gỡ bỏ vì bắt nạt được xác định và loại bỏ trước khi ai đó báo cáo. Tuy nhiên, trong cả hai trường hợp này, thuật toán không loại bỏ bài đăng; các chương trình chỉ đánh dấu bài đăng để được xem xét bởi con người.
Thách thức của Facebook đang là đưa công nghệ của mình hoạt động đủ tốt để khoảng 15.000 nhà đánh giá con người của họ có thể đáng tin cậy để chịu trách nhiệm, ở mỗi trong hơn 100 quốc gia và ngôn ngữ mà dịch vụ này được sử dụng. Làm cho bộ phát hiện bài viết căm hận và bắt nạt gần bằng hiệu quả và tự chủ như bộ lọc khiêu dâm của mình sẽ rất khó khăn.
Các thuật toán học sâu khá tốt trong việc phân loại hình ảnh thành các danh mục—mèo hay xe ô tô, khiêu dâm hay không khiêu dâm. Chúng cũng đã làm cho máy tính thông minh hơn với ngôn ngữ, cho phép trợ lý ảo như Alexa và nhảy vọt đáng kể trong độ chính xác của việc dịch tự động. Nhưng chúng vẫn còn rất xa so với việc hiểu ngôn ngữ ngay cả trong văn bản tương đối đơn giản như con người.
Giải Mã Ngôn Ngữ
Để hiểu xem một bài viết có nội dung “Tôi sẽ đánh bại bạn” là một lời đe dọa hay một trò đùa thân thiện, một nhà đánh giá con người có thể dễ dàng lấy vào xét đến việc liệu nó có đi kèm với hình ảnh của một sân bóng rổ trong khu phố, hoặc cách diễn đạt và tông điệu của những tin nhắn trước đó. “Cách một mô hình có thể sử dụng bối cảnh một cách đó không được hiểu,” Ruihong Huang, một giáo sư tại Đại học Texas A&M nói. Cô đã giúp tổ chức một hội thảo học thuật về việc sử dụng thuật toán để chống ngược đãi trực tuyến vào mùa thu này, tại một trong những hội nghị hàng đầu thế giới về nghiên cứu xử lý ngôn ngữ. Số lượng người tham dự và số lượng bài báo nộp tăng gấp đôi so với sự kiện ra mắt vào năm 2017—và không phải vì các nhà nghiên cứu ngửi thấy chiến thắng. “Nhiều công ty và người trong giới học thuật nhận ra rằng đây là một nhiệm vụ và vấn đề quan trọng, nhưng tiến triển cho đến nay không đủ thỏa mãn,” Huang nói. “Các mô hình hiện tại không thông minh đủ, đó là vấn đề.”
Srinivas Narayanan, người đứng đầu bộ phận kỹ thuật trong nhóm Học Máy Ứng Dụng của Facebook, đồng tình. Anh tự hào về công việc mà đội của anh đã thực hiện trên các hệ thống có thể quét khiêu dâm và bài viết căm hận với quy mô lớn, nhưng độ chính xác và sự tinh tế như con người vẫn là một hy vọng xa vời. “Tôi nghĩ chúng ta vẫn còn rất xa để có thể hiểu sâu vào đó,” anh nói. “Tôi nghĩ máy móc cuối cùng có thể, nhưng chúng ta chỉ đơn giản là không biết cách.”
Facebook có một phòng thí nghiệm Trí tuệ Nhân tạo lớn, đa quốc gia đang làm việc vào nghiên cứu cơ bản dài hạn có thể một ngày nào đó giúp giải quyết bí ẩn đó. Họ cũng có các nhà báo, nhà lập pháp, các nhóm xã hội dân sự, và thậm chí là Liên Hiệp Quốc đang kỳ vọng vào sự cải thiện ngay bây giờ. Đội AI của Facebook cần phát triển những chiêu thức có thể mang lại tiến triển ý nghĩa trước khi scandal tiếp theo xảy ra.
Các sản phẩm của sự đẩy mạnh đối với các công cụ Trí tuệ Nhân tạo mới thực tế bao gồm hệ thống được gọi là Rosetta được công bố trong năm nay có thể đọc văn bản được nhúng trong hình ảnh và video, cho phép nó được cung cấp cho bộ nhận diện bài viết căm hận. (Có bằng chứng cho thấy một số troll trực tuyến đã thử cách để đánh lừa nó.) Dự án khác sử dụng hàng tỷ hashtag từ người dùng Instagram để cải thiện hệ thống nhận dạng hình ảnh của Facebook. Công ty thậm chí đã sử dụng các ví dụ về bài viết bắt nạt trên Facebook để huấn luyện một loại AI cyberbully, dùng để tạo ra văn bản để đẩy các thuật toán kiểm duyệt của họ trở nên tốt hơn. Công ty từ chối cung cấp cho Mytour một mẫu sản phẩm của họ.
Một thách thức lớn cho những dự án này là thuật toán học máy hiện nay phải được huấn luyện với dữ liệu hẹp, cụ thể. Vào mùa hè này, Facebook đã thay đổi cách làm việc của một số người kiểm duyệt con người của họ, một phần để tạo ra dữ liệu huấn luyện hữu ích hơn về bài viết căm hận. Thay vì sử dụng kiến thức của họ về các quy tắc của Facebook để quyết định xem có xóa bài viết bị gắn cờ là bài viết căm hận hay không, nhân viên trả lời một loạt các câu hỏi hẹp hơn. Bài viết có sử dụng từ lóng không? Liên quan đến một hạng mục được bảo vệ không? Hạng mục đó có bị tấn công trong bài viết này không? Người xem có thể quét qua tất cả các câu trả lời để đưa ra quyết định cuối cùng. Những phản hồi cũng là nguyên liệu huấn luyện hữu ích cho các thuật toán để nhận biết từ lóng hoặc những điều khác cho chính họ. “Việc gán nhãn cụ thể đó mang lại cho chúng ta dữ liệu huấn luyện nguyên liệu thực sự hứng thú để xây dựng bộ phân loại,” Aashin Gautam, người dẫn đầu một nhóm phát triển quy trình kiểm duyệt nội dung nói. Facebook đang khám phá việc biến mô hình mới này trở nên vĩnh viễn, ban đầu cho bài viết căm hận, và sau đó có thể là các hạng mục nội dung cấm khác.

Ở nơi khác, Facebook đang cố gắng tránh vấn đề dữ liệu huấn luyện. Một bài học từ các sự kiện bi thảm tại Myanmar là công ty cần phải cải thiện việc đặt con người và phần mềm vào vị trí để hiểu ngôn ngữ và văn hóa của các thị trường khác nhau, theo Justin Osofsky, một phó chủ tịch điều hành toàn cầu.
Phương pháp thông thường để huấn luyện thuật toán giải mã văn bản trong nhiều ngôn ngữ sẽ cực kỳ tốn kém đối với Facebook. Để phát hiện lời chúc mừng sinh nhật hoặc bài viết căm hận bằng tiếng Anh, bạn cần hàng ngàn, tốt nhất là triệu ví dụ. Mỗi khi bạn muốn mở rộng sang một ngôn ngữ mới, bạn cần một bộ dữ liệu mới - một thách thức lớn đối với một công ty có quy mô như Facebook.
Là giải pháp, Facebook đang điều chỉnh các hệ thống được xây dựng cho các ngôn ngữ thông thường như tiếng Anh hoặc tiếng Tây Ban Nha để hoạt động cho các ngôn ngữ ít phổ biến hơn, như tiếng Romania hoặc tiếng Malay. Một phương pháp bao gồm việc sử dụng dịch tự động. Facebook đã có thể đẩy lùi những nội dung clickbait trong các ngôn ngữ bao gồm tiếng Hungary và tiếng Hy Lạp một phần bằng cách chuyển bài viết thành tiếng Anh để chúng có thể được đưa vào bộ nhận diện clickbait được huấn luyện trên nội dung của Mỹ. Nó cũng tạo ra các bộ dữ liệu huấn luyện mới cho các ngôn ngữ ít phổ biến bằng cách dịch từ tiếng Anh. Dự án khác liên quan đến việc tạo ra các hệ thống đa ngôn ngữ được chuẩn bị với những tương đồng sâu sắc giữa các ngôn ngữ, có nghĩa là khi được huấn luyện trong một nhiệm vụ bằng tiếng Anh, chúng có thể ngay lập tức làm cùng một điều ở tiếng Ý. “Các phương pháp đa ngôn ngữ này thực sự đã giúp tăng tốc khả năng của chúng tôi áp dụng Trí tuệ Nhân tạo vào các vấn đề về tính trọn vẹn qua các ngôn ngữ,” Narayanan nói.
Dự án cũng giúp minh họa quy mô thách thức của Facebook. Cho đến nay, các giải pháp tạm thời đa ngôn ngữ của họ không hoạt động trên các ngôn ngữ mà công ty có bộ dữ liệu tương đối nhỏ, chẳng hạn như tiếng Miến Điện. Cùng một thách thức tồn tại cho tiếng Hausa, một ngôn ngữ Tây Phi được sử dụng trong các chiến dịch chửi rủa chống lại người Hồi giáo mà cảnh sát địa phương cho biết với BBC tháng trước đã dẫn đến hơn mười vụ giết người. Facebook nói rằng họ đang mở rộng mối quan hệ với các tổ chức kiểm chứng sự thật ở Nigeria và các tổ chức phi chính phủ, cũng như việc sử dụng học máy để phát hiện và loại bỏ lời chửi rủa và hình ảnh bạo lực.
Khi được mời nhìn xa trước, Schroepfer, giám đốc công nghệ của Facebook, thừa nhận rằng việc ngăn chặn các sự cố như vậy không bao giờ xảy ra là không thể. “Một câu hỏi mà tôi thường đặt cho bản thân là liệu có bất kỳ dự án có độ phức tạp tương đương nào có tỷ lệ an toàn 100% không,” ông nói. “Tôi không thể nghĩ ra. Máy bay, ô tô, du hành vũ trụ, cảnh sát. Bạn có biết thành phố nào có tỷ lệ tội phạm bằng không hoặc đang trên đường đến đó không?”
Tuy nhiên, ông vẫn lạc quan đủ khi nghĩ về con đường của Facebook để mơ tưởng một ngày nào đó thuật toán của họ hiệu quả đến mức việc bắt nạt và lời lẽ căm hận gần như biến mất. “Hy vọng của tôi là trong hai hoặc ba hoặc năm năm tới, trên trang web sẽ còn rất ít nội dung như vậy đến mức thật khó tin khi nói rằng nó đang có ảnh hưởng lớn đối với thế giới,” Schroepfer nói. Một kỹ sư công nghệ có thể mơ mộng.
Những câu chuyện tuyệt vời khác của Mytour
- Racing to understand Antarctica's most terrifying glacier
- Aston Martin's $3 million Valkyrie gets a V12 engine
- How the CIA trains spies to hide in plain sight
- Facebook's dirty tricks are nothing new for tech
- How to use Apple Watch's new heart rate features
- 👀 Looking for the latest gadgets? Check out our picks, gift guides, and best deals all year round
- 📩 Hungry for even more deep dives on your next favorite topic? Sign up for the Backchannel newsletter
