Tiếp Theo: Hệ Thống Đề Xuất Tốt Hơn

Tôi đã là người dùng Pinterest từ lâu. Tôi có các bảng từ nhiều năm trước, bao gồm các sở thích cũ (đám cưới kiểu art deco) và những sở thích gần đây hơn (các bữa tiệc sinh nhật đầu tiên với chủ đề vịt cao su). Khi đăng nhập vào trang web, tôi được đề xuất những pins phù hợp - pins có hình ảnh màu sắc về quần áo trẻ em kèm theo các mẹo nấu ăn nhanh bằng Instant Pot. Mỗi lần nhấp chuột, các đề xuất trở nên cụ thể hơn. Nhấp vào một công thức canh gà, và xuất hiện các loại khác. Nhấp vào một pins về bánh gato hình vịt cao su, và bánh cupcakes và đĩa phô mai hình vịt nhanh chóng xuất hiện dưới tiêu đề “Nhiều hơn như thế này”.
Những đề xuất này rất hoan nghênh, vô hại. Và chúng khiến tôi tiếp tục nhấp chuột.
Nhưng khi một dự án nghiên cứu thông tin sai lệch dẫn tôi đến một bảng Pinterest về các hình ảnh chế giễu Hồi giáo, một đêm nhấp chuột qua những pins đó - được tạo ra bởi các nhân vật giả liên kết với Cơ quan Nghiên cứu Internet - đã biến trang cua của tôi thành một tập hợp lạ lẫm. Trải nghiệm về trẻ con và công thức nấu ăn của tôi biến thành một hỗn hợp lạ lẫm của video về Dinesh D'Souza, một nhà bình luận cánh hữu gây tranh cãi, và các dự án thủ công bằng tiếng Nga.
Tuy nhiên, thực tế không phải hoàn toàn tự do - không có quyền Tự do Ngôn luận ở đây - và thuật toán đã quyết định những gì bạn thấy. Hệ thống đề xuất dựa trên nội dung và lọc hợp tác không bao giờ trung lập; chúng luôn đánh giá một video, một pin hoặc một nhóm so với nhau khi chúng quyết định cho bạn thấy cái gì. Chúng có quan điểm và có ảnh hưởng, mặc dù không theo cách đơn giản hay theo đảng mà một số nhà phê bình cho rằng. Và khi nội dung cực đoan, chia rẽ và gây chú ý tiếp tục nổi lên, rõ ràng hơn rằng thuật toán sưu tập cần phải được điều chỉnh thêm và được cân nhắc lại để xem xét những gì chúng đang phục vụ.
Một số công việc này đã được triển khai. Dự án Redirect, một nỗ lực của Google Jigsaw, chuyển hướng những loại người dùng cụ thể đang tìm kiếm video khủng bố trên YouTube - những người có vẻ được thúc đẩy bởi nhiều hơn sự tò mò đơn thuần. Thay vì cung cấp nội dung bạo lực hơn, phương pháp của hệ thống đề xuất đó là làm ngược lại - nó chỉ đường cho người dùng đến nội dung được dự định để làm giảm đạo hóa họ. Dự án này đã triển khai trong việc chống lại cực đoan bạo lực trong vài năm qua, điều đó có nghĩa là YouTube đã nhận thức được vấn đề khái niệm và lượng quyền lực mà hệ thống đề xuất của họ sở hữu từ lâu. Điều đó khiến quyết định của họ để giải quyết vấn đề trong các lĩnh vực khác bằng cách chuyển hướng người dùng đến Wikipedia để kiểm chứng sự thật trở nên ngớ ngẩn hơn.
Guillaume Chaslot, một kiến trúc sư hệ thống đề xuất YouTube trước đây và hiện là nghiên cứu viên độc lập, đã viết rất nhiều về vấn đề của YouTube đang phục vụ nội dung âm mưu và kích động - hư cấu vượt trội so với hiện thực, như anh ấy nói trong The Guardian. “Mọi người đã nói về những vấn đề này từ nhiều năm qua,” anh ấy nói. “Các cuộc khảo sát, Wikipedia và các đánh giá viên bổ sung chỉ làm cho một số vấn đề trở nên ít hiển thị hơn. Nhưng nó sẽ không ảnh hưởng đến vấn đề chính - thuật toán của YouTube đang đẩy người dùng theo một hướng mà họ có thể không muốn.” Việc cho người dùng nhiều kiểm soát hơn đối với những gì luồng thuật toán của họ phục vụ là một giải pháp tiềm năng. Twitter, ví dụ, đã tạo ra một bộ lọc cho phép người dùng tránh nội dung từ các tài khoản chất lượng thấp. Không phải ai cũng sử dụng nó, nhưng tùy chọn đó tồn tại.
Trước đây, các công ty đã tự nguyện đàn áp nội dung liên quan đến tự sát, viêm gan, cho vay lương nhóm và các trò lừa đảo bitcoin. Các chủ đề nhạy cảm thường được xử lý thông qua các quyết định kiểm duyệt tạm thời sau một làn sóng phản đối từ công chúng. Các lệnh cấm từ khóa đơn giản thường quá rộng rãi và thiếu sự tinh tế để hiểu nếu một tài khoản, Nhóm hoặc Pin đang thảo luận về một chủ đề nóng, hay đang khuyến khích nó. Kiểm duyệt phản ứng thường dẫn đến làn sóng phản đối về việc kiểm duyệt.
Các nền tảng cần phải chịu trách nhiệm một cách minh bạch, chu đáo và có chủ đích với vấn đề này. Có lẽ điều đó bao gồm việc tạo ra một danh sách rõ ràng về các chủ đề 'Không Tăng cường' phù hợp với giá trị của nền tảng. Có lẽ đó là một cách tiếp cận tinh vi hơn: việc đưa vào hệ thống đề xuất dựa trên một chỉ số chất lượng được dẫn xuất từ sự kết hợp của các tín hiệu về nội dung, cách nó được phổ biến (có sự tham gia của bot?), và tính xác thực của kênh, nhóm hoặc giọng điệu đằng sau nó. Các nền tảng có thể quyết định cho phép nội dung về Pizzagate tồn tại trên trang web của họ trong khi đồng thời quyết định không tăng cường theo thuật toán hoặc đề xuất nó cho người dùng một cách tích cực.
Cuối cùng, chúng ta đang nói về 'kiến trúc lựa chọn', một thuật ngữ để mô tả cách thông tin hoặc sản phẩm được trình bày cho người dùng một cách có tính đến lợi ích cá nhân hoặc xã hội trong khi vẫn giữ cho người tiêu dùng có sự lựa chọn. Cách trình bày lựa chọn có ảnh hưởng đến việc mọi người chọn lựa điều gì, và các hệ thống đề xuất của mạng xã hội là một phần quan trọng của việc trình bày đó; chúng đã đang tạo ra bộ lựa chọn. Đây là ý tưởng đằng sau 'chọc nhẹ' - bạn đặt táo hay khoai tây ở phía trước và giữa trên đường ăn trưa của trường học?
Nhu cầu để suy nghĩ lại về đạo đức của các hệ thống đề xuất chỉ càng trở nên cấp thiết hơn khi các hệ thống sưu tập và trí tuệ nhân tạo xuất hiện trong những nơi nhạy cảm ngày càng nhiều: chính quyền địa phương và quốc gia đang sử dụng các thuật toán tương tự để xác định ai được bảo lãnh, ai nhận các khoản trợ cấp và khu phố nào cần được kiểm soát. Khi các thuật toán tích lũy thêm quyền lực và trách nhiệm trong cuộc sống hàng ngày của chúng ta, chúng ta cần tạo ra các khung việc cứng rắn để chịu trách nhiệm đối với chúng - điều đó có nghĩa là ưu tiên đạo đức hơn lợi nhuận.
