Chúng Tôi Thực Sự Khuyến Nghị Tập Podcast Này

Internet hiện đại được động viên bởi các thuật toán đề xuất. Chúng có mặt ở khắp mọi nơi từ Facebook đến YouTube, từ các công cụ tìm kiếm đến các trang web mua sắm. Hệ thống này theo dõi hành vi trực tuyến của bạn và sử dụng dữ liệu đó để đề xuất nội dung tiếp theo bạn nên tiếp thu. Mục tiêu của họ là giữ người dùng trên một nền tảng bằng cách hiển thị những thứ mà họ sẽ dành thêm thời gian tương tác. Vấn đề là những chuỗi liên kết đó có thể dẫn người dùng đến những nơi kỳ lạ, đôi khi dẫn họ vào những con đường tối tăm trên internet hoặc hiển thị nội dung có hại. Các nhà lập pháp và nhà nghiên cứu đã chỉ trích hệ thống đề xuất trước đây, nhưng những phương pháp này đang được xem xét một cách chặt chẽ khi Google và Twitter đang phải bảo vệ phương thức thuật toán của họ trước Tòa án Tối cao Hoa Kỳ.
Tuần này trên Gadget Lab, chúng tôi nói chuyện với Jonathan Stray, một nhà khoa học cấp cao tại Trung tâm Berkeley về Trí tuệ Nhân loại AI có thể tương thích. Chúng tôi thảo luận về cách các thuật toán đề xuất hoạt động, cách chúng được nghiên cứu và cách chúng có thể bị lạm dụng và kiềm chế.
Đọc tất cả về Mục 230. Đọc câu chuyện nghiên cứu về đám cưới của Jonathan Stray và Gillian Hadfield trên MYTOUR của họ. Tìm hiểu thêm về hai vụ án trước Tòa án Tối cao Hoa Kỳ.
Jonathan gợi ý cuốn sách Con Đường Thoát, của Peter Coleman. Mike gợi ý tiểu thuyết Từ Chối, của Jon Raymond. Lauren gợi ý câu chuyện của Matt Reynolds trên MYTOUR về cách bạn đã nghĩ về thức ăn sai, và cũng làm một chiếc túi để làm sữa hạt.
Jonathan Stray có thể được tìm thấy trên Twitter @jonathanstray. Lauren Goode là @LaurenGoode. Michael Calore là @snackfight. Gọi điện thoại chính tại @GadgetLab. Chương trình được sản xuất bởi Boone Ashworth (@booneashworth). Nhạc nền của chúng tôi được thực hiện bởi Solar Keys.
Nếu bạn có ý kiến về chương trình, hãy tham gia cuộc khảo sát ngắn của người nghe chúng tôi. Việc tham gia sẽ mang lại cho bạn cơ hội nhận giải thưởng $1,000.
Bạn luôn có thể nghe podcast của tuần này thông qua trình phát âm thanh trên trang này, nhưng nếu bạn muốn đăng ký miễn phí để nhận mọi tập, đây là cách:
Nếu bạn sử dụng iPhone hoặc iPad, mở ứng dụng có tên là Podcasts, hoặc chỉ cần chạm vào liên kết này. Bạn cũng có thể tải xuống một ứng dụng như Overcast hoặc Pocket Casts và tìm kiếm Gadget Lab. Nếu bạn sử dụng Android, bạn có thể tìm thấy chúng tôi trong ứng dụng Google Podcasts chỉ cần chạm vào đây. Chúng tôi cũng có trên Spotify. Và trong trường hợp bạn thực sự cần, đây là RSS feed.
Lauren Goode: Mike.
Michael Calore: Lauren.
Lauren Goode: Khi bạn đã xem điều gì hoặc nghe điều gì hoặc mua điều gì trên internet lần cuối cùng vì nó xuất hiện làm gợi ý trong feed của bạn?
Michael Calore: Sáng nay.
Lauren Goode: Thật sao?
Michael Calore: Vâng, tôi mở Spotify và nó đã thông báo cho tôi biết một bản nhạc mới từ một nghệ sĩ mà nó biết rằng tôi thường nghe đã được phát hành. Vì vậy, tôi chạm vào đó và nghe nó.
Lauren Goode: Có phải là Lola Kirke không?
Michael Calore: Không phải. Nó là Adi Oasis.
Lauren Goode: Oh, OK. Bởi vì tôi biết cô ấy là bạn gái của bạn.
Michael Calore: Còn bạn thì sao?
Lauren Goode: Không, không phải tôi. Tôi tập trung hoàn toàn vào sáng tạo con người. Nếu một người bạn bảo tôi nghe một podcast, tôi sẽ nghe nó. Tôi không thường xuyên chấp nhận đề xuất ứng dụng cho podcast. Nhưng có lẽ điều đó không hoàn toàn đúng, vì tôi cũng nghe các danh sách phát được Spotify đề xuất.
Michael Calore: Vâng. Nó làm phong phú cuộc sống của bạn không?
Lauren Goode: Không, nó khiến tôi lười biếng về âm nhạc, có lẽ điều đó làm bạn cảm thấy khó chịu.
Michael Calore: Không. Ý tôi là, tôi có vẻ đã chán nó, nhưng nếu bạn muốn tôi cảm thấy bị làm tổn thương, tôi có thể trở nên tổn thương một cách không lý trí.
Lauren Goode: OK. Được rồi, đó là chương trình của chúng ta, mọi người. Bây giờ tôi đang tìm kiếm đề xuất cho một người dẫn chương trình mới, vì vậy hãy bắt đầu điều đó.
Michael Calore: Được rồi, tuyệt vời.
[Gadget Lab đang chơi nhạc nền vào]
Lauren Goode: Chào mọi người. Chào mừng đến với Gadget Lab. Tôi là Lauren Goode. Tôi là một nhà báo cấp cao tại MYTOUR.
Michael Calore: Và tôi là Michael Calore. Tôi là một biên tập viên cấp cao tại MYTOUR.
Lauren Goode: Và chúng tôi cũng có sự tham gia của Jonathan Stray trong tuần này, người là một nhà khoa học cấp cao tại Trung tâm Berkeley về Trí tuệ Nhân loại có thể tương thích. Jonathan, cảm ơn bạn rất nhiều đã tham gia cùng chúng tôi.
Jonathan Stray: Hey, cảm ơn. Rất vui được ở đây.
Michael Calore: Vậy nếu tôi hiểu đúng các lập luận mà người kiện đang đưa ra, có vẻ như họ đang nói rằng khi YouTube thực hiện điều đó, nó đang thực hiện bước tích cực đặt một cái gì đó trước mặt người dùng, thì thực sự nó đang hành động như một nhà xuất bản và đang đưa ra quyết định về điều gì người đó nên nhìn thấy. Vậy có đúng không?
Jonathan Stray: Vì vậy, ngôn ngữ cụ thể của phần này của luật—tôi ước tôi có nó trước mặt để có thể lấy chính xác nó—nhưng nó cơ bản nói rằng các nhà cung cấp dịch vụ internet, tức là cụm từ phức tạp này hầu như dịch thành trang web, không chịu trách nhiệm nếu họ được xem xét như nhà xuất bản hoặc người nói của nội dung do người khác cung cấp. Vì vậy, nhiều cuộc tranh cãi pháp lý xoay quanh việc một thuật toán cố gắng ghép người với những thứ họ sẽ muốn xem có phải là điều mà nhà xuất bản thực hiện hay không. Có thể thấy, một tờ báo không cố gắng tìm hiểu xem những người cụ thể nào sẽ thích những bài viết cụ thể, nhưng họ thực sự cố gắng tìm hiểu về độc giả của họ nói chung sẽ muốn gì và họ đưa ra quyết định về ưu tiên và phân loại. Do đó, một số cuộc đấu tranh ở mức độ cao nhất của hệ thống tư pháp đã xoay quanh việc 'Vâng, liệu điều này có phải là điều mà nhà xuất bản thực sự quyết định, rằng một số người sẽ quan tâm hơn vào những điều gì đó?'
Lauren Goode: Đúng. Vì tôi nghĩ, đối với những người nghe, đây là một chút bóng bàn nội dung, nhưng đó là lý do tại sao có sự khác biệt giữa những gì chúng tôi làm ở đây tại MYTOUR... Và, by the way, podcast này mà chúng tôi đang ghi âm ngay bây giờ sau đó sẽ được xuất bản trên các nơi như Apple Podcasts và Spotify, đó là các nền tảng lớn, nhưng tại sao chúng tôi khác biệt so với những nền tảng công nghệ đó là vì chúng tôi sản xuất và xuất bản câu chuyện hoặc podcast, trong khi họ chỉ đơn giản là đăng và phân phối chúng. Bạn có nói rằng đó là tóm tắt chính xác về sự khác biệt không?
Jonathan Stray: Vâng, đó là sự khác biệt. Sự phân biệt pháp lý là liệu trang web hoặc ứng dụng đang chứa nội dung có tự tạo ra nó hay không hay có người khác tạo ra. Và bạn đề cập đến nội dung được xuất bản bởi người dùng của họ. Thực tế không nhất thiết phải là người dùng của họ. Vì dưới phần 230, Spotify không chịu trách nhiệm về nội dung của một podcast mà họ chứa trừ khi, ví dụ, họ trả tiền cho nó. Họ có một phần trong việc tạo ra nội dung đó. Và một trong những lập luận trước tòa là 'Khi một nền tảng sử dụng một thuật toán để chọn những gì mỗi người thấy, họ đang tạo ra nội dung theo cách nào đó.' Và ở đây là điều, tôi đồng cảm với lập luận này, thực sự. Tôi nghĩ rõ ràng có một số giới hạn mà trang web và ứng dụng và nền tảng phải chịu trách nhiệm. Vì vậy, nếu bạn tạo ra một trang web hoàn toàn về 'Hãy giúp tổ chức khủng bố tuyển mộ. Hãy tìm ra những video tuyển mộ có hiệu suất tốt nhất và tìm ra những đối tượng có khả năng sẽ bị thuyết phục bởi chúng và kết hợp họ lại với nhau,' tôi nghĩ rằng điều đó nên bị hình sự hóa. Bây giờ đó không phải là điều đã xảy ra ở đây. Vấn đề ở đây là một cách vẽ đường, và lập luận chúng tôi đưa ra trong bản tóm tắt mà tôi gia nhập cùng với Trung tâm Dân chủ và Công nghệ và một số chuyên gia công nghệ đáng chú ý khác chính là cách bạn đang nghĩ về việc vẽ đường này không hoạt động.
Lauren Goode: Đúng. Bạn đã lập luận rằng không phải là các nền tảng công nghệ lớn không bao giờ chịu trách nhiệm, nhưng bạn không thấy có sự khác biệt chức năng giữa việc đề xuất nội dung và hiển thị nội dung.
Jonathan Stray: Đúng. Và điều này minh họa cũng liên quan đến phần ngoại tuyến. Vì vậy, có một bản tóm tắt khác nói rằng, “OK. Vì vậy, nếu tôi là một cửa hàng sách và tôi đặt một quyển sách của Stephen King gần, tôi không biết, một cuốn tiểu thuyết của Agatha Christie, điều tôi đang nói là những người thích sách của Stephen King có thể cũng thích cuốn sách trinh thám cũ hơn này.” Có phải là một đề xuất có mục tiêu không? Tôi đang sử dụng một số thông tin về người dùng hoặc khách hàng để quyết định tôi sẽ hiển thị gì cho họ tiếp theo. Vì vậy, có tất cả những đường kỳ lạ này, và chúng tôi đã cố gắng lập luận rằng tòa án nên áp dụng một tiêu chí khác. Có một vụ án trước đó có ngôn ngữ xung quanh đóng góp vật chất, tức là nền tảng đã làm một cái gì đó cụ thể để giúp những kẻ khủng bố trong trường hợp này? Bây giờ, chúng ta chưa đến được điểm này trong tòa án, nhưng nếu nó đến điểm đó, tôi nghĩ chúng ta sẽ thấy câu trả lời là không. Trên thực tế, vào thời điểm đó, YouTube đang cố gắng loại bỏ nội dung khủng bố, điều này dẫn chúng ta đến vụ án được nghe vào ngày tiếp theo, vụ án mang tên Taamneh v. Twitter. Và vụ án đó là, nếu một nền tảng biết rằng các kẻ khủng bố đang sử dụng trang web của họ, liệu họ có chịu trách nhiệm vì giúp đỡ những kẻ khủng bố hay không, ngay cả khi họ đang cố gắng loại bỏ nội dung khủng bố.
Michael Calore: Vì vậy, các lập luận trong cả hai vụ án này đã được đưa ra. Tòa án đã nghe chúng. Họ sẽ không công bố quyết định trong nhiều tháng, rất nhiều tháng. Chúng ta biết cách các luật sư đưa ra lập luận và chúng ta biết những câu hỏi mà các bậc thẩm phán đặt ra. Vậy có cách nào để dự đoán hoặc tiên đoán liệu quyết định có sẽ là mạnh mẽ? Không có vấn đề lớn? Ở đâu đó ở giữa?
Jonathan Stray: Vì những câu hỏi mà các bậc thẩm phán đang hỏi về vụ án đầu tiên, vụ án Gonzalez v. Google về Phần 230 cụ thể, tôi nghĩ họ sẽ tránh việc đưa ra một quyết định rộng lớn. Tôi nghĩ đó là Kagan có câu này, “Chúng tôi không phải là chín chuyên gia vĩ đại nhất về internet,” mà đã thu hút một tiếng cười lớn. Và điều mà bà ấy muốn nói là, nó là một phần của cuộc thảo luận nơi bà ấy đang hỏi, “Vâng, liệu Quốc hội có nên giải quyết vấn đề này không?” Tôi nghĩ đó thực sự là câu trả lời ở đây. Trên thực tế, hiện có một số luật được đề xuất trong Quốc hội ngay bây giờ sẽ sửa đổi Phần 230 theo nhiều cách khác nhau, và chúng ta có thể nói về những cái nào tôi nghĩ là hợp lý và những cái nào không. Nhưng tôi nghĩ tòa án sẽ muốn tránh nó và sẽ cố gắng tìm cách để hoặc tránh câu hỏi hoàn toàn, điều mà họ có thể làm, vì nếu bạn trả lời 'không' trong vụ án thứ hai, trong vụ án Taamneh, và nói, “Vâng, ngay cả khi họ không miễn trừ dưới Phần 230, họ không chịu trách nhiệm nếu họ đang cố gắng loại bỏ nội dung khủng bố và không loại bỏ hết.” Và điều đó sẽ cho phép họ chỉ đơn giản là không phán quyết trong vụ án đó. Tôi nghĩ đó là một kết quả khả thi khá lớn. Tôi nghĩ họ muốn tìm ra một cách để làm điều đó, nhưng ai biết được.
Lauren Goode: Được rồi, Jonathan, đây là nền tảng rất hữu ích. Chúng ta sẽ nghỉ giải lao một lát và sau đó quay lại với thêm thông tin về hệ thống đề xuất.
[Nghỉ]
Lauren Goode: Vì vậy, Jonathan, bạn đã nghiên cứu về hệ thống đề xuất từ nhiều năm, và rõ ràng đây là một lĩnh vực phát triển rất nhanh. Đây là một lĩnh vực công nghệ khá mới. Chúng ta có thể chỉ trải qua những thứ này trong khoảng 20 năm hoặc thậm chí ít hơn, và đã có nhiều nghiên cứu được thực hiện, nhưng gần đây đã xuất bản một bài báo mới nói rằng một số công việc trước đây liên quan đến nội dung cực đoan trên các nền tảng như YouTube và TikTok có thể đã là 'rác'—phương pháp trong nghiên cứu này đã gặp vấn đề. Bạn có thể giải thích điều này không? Và ngoài ra, liệu điều này có nghĩa là lo lắng của chúng ta về nội dung cực đoan đã kết thúc và chúng ta có thể trở lại internet là một nơi hạnh phúc không?
Jonathan Stray: Đúng.
Lauren Goode: Đó là một câu hỏi châm biếm. Vâng,
Jonathan Stray: Đúng. OK. Tôi có thể đã hơi châm biếm với từ 'rác,' nhưng OK. Vì vậy, tôi là một học giả, điều đó có nghĩa là tôi có sự tiện lợi khi không cần phải ủng hộ một bên cụ thể trong cuộc tranh luận này, và tôi có thể đưa ra những quan điểm kỳ quặc xung quanh vấn đề này. Vấn đề cơ bản là: Có rất nhiều điều có thể làm ảnh hưởng xấu đến truyền thông xã hội. Nó đã được liên kết với trầm cảm, rối loạn ăn uống, ch polaris hóa, khủng hoảng, tất cả những điều này. Vấn đề là, khá khó để có được bằng chứng đáng tin cậy về các tác động thực sự của những hệ thống này. Và một trong những loại bằng chứng mà mọi người đã tin cậy là một loại nghiên cứu cơ bản như sau: Bạn lập trình một bot để xem... Hãy nói nếu bạn đang làm trên YouTube. Bạn có thể làm điều này trên TikTok hoặc bất cứ đâu khác. Bạn lập trình một bot để xem một video trên YouTube, và sau đó bạn sẽ nhận được một loạt các đề xuất bên cạnh, tiếp theo, và sau đó click ngẫu nhiên vào một trong những đề xuất đó, và sau đó xem video tiếp theo và click ngẫu nhiên vào một trong những đề xuất sau đó. Vì vậy, bạn có được những gì họ gọi là một 'bước đi ngẫu nhiên' qua không gian đề xuất. Những nghiên cứu loại này cho thấy rằng một số lượng đáng kể của những con bot này, khi bạn làm điều này, sẽ kết thúc ở nội dung có độ cực đoan một cách nào đó. Vì vậy, cực đoan bên phải, cực đoan bên trái, nhiều nội dung khủng bố hơn. Tuy nhiên, nội dung khủng bố cực kỳ mãnh liệt chủ yếu không xuất hiện trên các nền tảng, vì nó đã bị gỡ bỏ. OK. Điều này đã được trích dẫn như là bằng chứng suốt nhiều năm rằng những hệ thống này thúc đẩy người ta đến quan điểm cực đoan. Nhưng cái mà bài báo này ra mắt vào tuần trước chỉ ra—đây là một bài báo có tên là 'Mâu thuẫn Tăng cường và Hệ thống Đề xuất,' của Ribeiro, Veselovsky, và West—là khi bạn thực hiện một bước đi ngẫu nhiên như vậy, bạn đánh giá cao lượng nội dung cực đoan được tiêu thụ, vì cơ bản là hầu hết người dùng không thích nội dung cực đoan. Họ không click ngẫu nhiên, họ click vào những thứ cực đoan hơn ít hơn so với ngẫu nhiên. Vì vậy, với tư cách là một học giả và một người nghiên cứu phương pháp, điều này rất quan trọng với tôi, và tôi nghĩ, “Cách nhìn nhận về tác động này không hoạt động.” Bây giờ, tôi không nghĩ điều đó có nghĩa là không có vấn đề. Tôi nghĩ có loại bằng chứng khác cho thấy chúng ta đang có một vấn đề. Đặc biệt, có một loạt công việc chỉ ra rằng nội dung cực đoan hơn hoặc nội dung gây sốc hơn hoặc nội dung giáo điều hơn hoặc nội dung nói xấu về nhóm người khác, dù điều đó có nghĩa là gì đối với bạn, có khả năng sẽ được click vào và chia sẻ hơn. Và các thuật toán đề xuất nhìn vào những tín hiệu này, mà chúng ta thường gọi là 'tương tác,' để quyết định sẽ hiển thị gì cho người xem. Tôi nghĩ đó là một vấn đề, và tôi nghĩ có loại bằng chứng khác cho thấy rằng điều này đang khuyến khích những nhà sản xuất truyền thông trở nên cực đoan hơn. Vì vậy, không phải là mọi thứ đều ổn bây giờ, mà là cách chúng ta đã sử dụng để đánh giá tác động của những hệ thống này thực sự không sẽ cho chúng ta biết những gì chúng ta muốn biết.
Michael Calore: Vì vậy, có rất nhiều điều chúng ta không biết về cách những hệ thống đề xuất này hoạt động. Và tôi nghĩ, phần lớn là do thiếu kiến thức này là do những người nghiên cứu không thể tiếp cận được với cách hoạt động nội tại của thuật toán. Có lý do rõ ràng, phải không? Có những lý do về sở hữu trí tuệ mà các công ty không muốn cho bất kỳ ai thấy cách họ đưa ra các đề xuất. Vì vậy, làm thế nào bạn có thể nghiên cứu về một cái gì đó mà bạn chỉ thực sự có thể tiếp cận ở mức trừu tượng?
Lauren Goode: Đây là một câu hỏi hay, vì chúng ta biết những thuật toán này thường là những hộp đen.
Jonathan Stray: Đúng. Vì vậy, giải pháp cho vấn đề này cuối cùng là cho phép các nhà nghiên cứu tiếp cận những hệ thống này. Và cuối cùng, chúng ta thực sự không biết tác động của những hệ thống này là gì, vì chưa bao giờ có, hãy nói, một thử nghiệm kiểm soát thích hợp về việc so sánh hai hệ thống đề xuất khác nhau. Vì vậy, bạn có thể tưởng tượng một hệ thống mà nó đánh giá cao khả năng người dùng sẽ chia sẻ lại một cái gì đó nhiều hơn so với hệ thống khác. Và sau đó, bạn nhìn xem liệu, do đó, mọi người có xem nội dung cực đoan hơn không. Bạn có thể thiết kế thí nghiệm này. Tôi và những học giả khác đã thiết kế những thí nghiệm như vậy, nhưng bạn không thể thực hiện chúng, vì bạn cần sự hợp tác của các nền tảng. Hiện tại không có cách nào để bắt buộc các nền tảng làm như vậy, và họ có lẽ đúng khi e ngại cho phép người nội bộ tham gia. Tuy nhiên, tôi thực sự đang làm việc trên một thí nghiệm cộng tác với Meta, và có một bài báo sắp ra mắt trên MYTOUR, tôi nghĩ là ngày mai, về thí nghiệm này. Vì vậy, tôi đoán chúng ta có thể liên kết đến nó trong ghi chú chương trình.
Michael Calore: Hoàn hảo.
Lauren Goode: Đến lúc chương trình phát sóng, bài báo đó sẽ đã xuất bản.
Jonathan Stray: Đúng vậy. Hoàn hảo. Nhưng nói chung, thí nghiệm mà nhiều nhà nghiên cứu muốn thực hiện vẫn chưa thể thực hiện được. Các nền tảng đôi khi nghiên cứu về những vấn đề như vậy, như Facebook đã thực hiện một nghiên cứu lớn về so sánh xã hội trên Instagram—việc xem một số cô gái rất gầy trên Instagram có làm cho teen buồn phiền không. Và chúng ta chỉ biết về nó qua những tài liệu của Facebook. Vì vậy, ngay cả khi họ đặt câu hỏi đúng, chúng ta không được biết câu trả lời. Và đó là một vấn đề. Thật không may, không có cách đơn giản để làm điều này, vì một người từng làm việc trong ngành nói, “Như vậy, họ chỉ cần bắt buộc phải công bố kết quả của mọi thí nghiệm theo luật lệ.” Nghe có vẻ rất hấp dẫn. Nhưng nếu chúng ta làm điều đó, tôi nghĩ sẽ có động lực để không đặt những câu hỏi khó khăn. Vì vậy, đây là một trong những lĩnh vực chính sách nơi nó đầy ắp những ý định tốt và động cơ sai lệch.
Lauren Goode: Và báo cáo chủ quan có lẽ cũng sẽ gặp vấn đề. Phải không? Điều này có nghĩa là đi xung quanh và hỏi người dùng, theo dõi việc sử dụng YouTube của bạn trong một tháng hoặc lâu hơn và sau đó báo cáo xem liệu bạn có bị ảnh hưởng hay không. Chúng ta tất cả tin rằng chúng ta không bị ảnh hưởng, và chúng ta thực sự bị ảnh hưởng một cách tinh subtile. Chúng ta thậm chí không hiểu đầy đủ.
Jonathan Stray: Ý tôi là, mọi người làm những điều đó, và đó là điều thú vị và sẽ gợi ý. Ví dụ, đó là cách chúng ta biết có một tương quan giữa việc sử dụng mạng xã hội và các vấn đề về trầm cảm và lo âu. Vấn đề là khi bạn làm điều đó, bạn không biết liệu đó là vì những người buồn bã dành nhiều thời gian trên mạng xã hội hơn hay vì việc dành nhiều thời gian trên mạng xã hội khiến người ta buồn bã hoặc cả hai. Vì vậy, bạn chỉ có thể thật sự tách rời điều đó bằng cách thực hiện một thí nghiệm ngẫu nhiên giống như.
Lauren Goode: Jonathan, một trong những sự quyến rũ cá nhân của tôi liên quan đến chủ đề này là ký ức số. Tôi đã viết về điều này cho MYTOUR. Tôi đã xuất bản một bài đặc điểm vài năm trước về trải nghiệm cá nhân của tôi với việc ký ức số liên tục tái xuất vì ứng dụng ảnh của chúng ta hiện đang sử dụng thuật toán. Và vì quảng cáo có định hình mục tiêu hiện đặt tôi vào một loại thùng—cơ bản là tôi sắp kết hôn, tôi đang lên kế hoạch cho đám cưới, tôi đã ở với ai đó trong một thời gian dài và đã chia tay. Bạn có thể đọc tất cả về nó trên MYTOUR.com khi bạn đọc xong bài viết mới nhất của Jonathan trên MYTOUR. Nó là một loại điều kỳ cục thú vị. Vì nhiều năm, tôi có nghĩa là đến ngày nay, tuần này, Google Photos lại tái xuất một ký ức về tôi với người yêu cũ và con mèo của chúng tôi. Và một thời gian dài, tôi đã được đặt vào thùng cưới. Vì vậy, tôi tiếp tục nhận quảng cáo liên quan đến nội dung và nhà cung cấp dịch vụ cưới. Và sau đó tôi nghĩ là do tuổi tôi và vì thế, tôi đã được đặt vào thùng mang thai cho các nhà quảng cáo, vì bây giờ tôi nhận được rất nhiều quảng cáo đó. Vì vậy, tôi cảm thấy rằng bằng cách nào đó, những ký ức tái xuất này đang bắt đầu ảnh hưởng đến trải nghiệm con người của chúng ta hoặc quá trình phát triển hoặc quá trình tang thương của chúng ta. Khi bạn nghĩ về ký ức số, bạn có xem đây là một dạng của “gợi ý” khác không? Bạn sẽ phân loại nó như thế nào? Bạn nghĩ có thể làm gì đó về điều đó không?
Jonathan Stray: Vâng. À, nghĩ về hệ thống đề xuất. Nó thực sự là một vấn đề không thể sống được với chúng và không thể sống được mà không có chúng. Vì vấn đề là, trước khi internet xuất hiện—và tôi đủ già để lớn lên trong thời kỳ này, nên chúng ta có thể rời khỏi sân của tôi—có một số kênh truyền thông tương đối nhỏ. Nhiều người nói, “Vậy, liệu có tuyệt vời nếu chúng ta có thể truy cập tất cả kiến thức của thế giới qua một modem từ máy tính để bàn của chúng ta không?” OK, tuyệt vời, công nghệ cần thiết. Công cụ tìm kiếm không miễn phí khỏi những vấn đề này. Chúng cũng phải quyết định điều gì là tôi nên hiển thị nhất khi phản hồi bất kỳ truy vấn nào. Và cũng chúng được cá nhân hóa, vì nếu bạn nhập “thợ làm khóa,” bạn không muốn mọi thợ làm khóa trên thế giới, bạn muốn một thợ làm khóa ở thành phố của bạn. Và nếu tôi nhập “Python,” tôi có thể muốn ngôn ngữ lập trình Python, nhưng người khác muốn xem con rắn. Vì vậy, bạn có tất cả những vấn đề cá nhân hóa giống nhau. Nhưng công cụ tìm kiếm không giải quyết vấn đề rằng chúng ta không biết những gì chúng ta không biết. Ví dụ điển hình về điều này là một hệ thống đề xuất tin tức. Nếu tôi phải nhập từ khóa cho các câu chuyện hàng đầu của ngày, một hệ thống đề xuất tin tức sẽ là vô dụng. Vì vậy, thực sự chúng ta muốn những hệ thống này giúp chúng ta giải quyết vấn đề quá tải thông tin. Nó trở nên khó khăn khi bạn có những thứ như “hiển thị cho tôi lịch sử cá nhân của tôi,” và tôi cũng có trải nghiệm như vậy. Có lẽ tôi không muốn xem lại bức ảnh của mối quan hệ cũ tôi. Đúng không? Tôi đoán tôi sẽ cảm thấy hồn nhiên hơn khi thử hiện hình ảnh từ cuộc sống cá nhân của họ hơn là những thứ khác đang diễn ra trong thế giới. Lý thuyết, có lẽ nếu hệ thống biết bạn cảm thấy thế nào về cuộc chia tay của bạn, họ có thể có thể đưa ra lựa chọn tốt hơn. Nhưng đó là vấn đề nhạy cảm lắm. Tôi không biết, có lẽ khi chúng ta trở nên thành thạo hơn với trí tuệ nhân tạo, giống như bạn bè của bạn có thể biết không nhắc nhở bạn về điều đó, có lẽ máy móc cũng sẽ biết.
Lauren Goode: Tôi cảm thấy như Google nên có một nút “Tôi đã Qua” giống như nút “Tôi Cảm Thấy May Mắn”—chỉ cần, tôi đã qua rồi, nhấn vào. Đã lâu rồi. Không thêm nữa, nhưng hãy tiếp tục gửi ảnh mèo.
Jonathan Stray: Đúng. Ý tôi là, tôi nghĩ một trong những cách chính để giảm nhẹ một số vấn đề này là có nhiều kiểm soát hơn từ người dùng. Vì vậy có rất nhiều nhà nghiên cứu, bao gồm cả bản thân tôi, đang cố gắng tìm cách xây dựng các kiểm soát tốt hơn cho những hệ thống này. Thật không may, giống như cài đặt quyền riêng tư, hầu hết mọi người không sử dụng kiểm soát. Vì vậy, các mặc định vẫn phải đúng.
Michael Calore: Phải thừa nhận rằng khi hệ thống đề xuất xuất hiện lần đầu trong những thứ như nghe nhạc hoặc trên YouTube, tôi đã mạnh mẽ phản đối việc nhấp vào chúng. Tôi có quan điểm là, “Tôi biết rất nhiều về những thứ này. Tôi có thể tự chọn lựa trải nghiệm của mình, cảm ơn bạn rất nhiều. Hãy giữ những thứ đó ra khỏi đây.” Nhưng theo thời gian, chúng đã trở nên xuất sắc trong việc hiển thị cho tôi những điều, và các tùy chọn khám phá đã trở nên tốt đẹp—đặc biệt là với âm nhạc trên Spotify, nếu tôi phải chọn một trong những tôi đã tin tưởng, tôi biết rằng nó sẽ cho tôi thấy những điều thực sự thú vị. Vì vậy, tôi nghĩ niềm tin của chúng ta phải phát triển theo thời gian trong một số trường hợp như vậy, giống như trong trường hợp các gợi ý khám phá.
Jonathan Stray: Vâng, đúng là bạn đề cập đến hệ thống đề xuất của Spotify. Tôi cũng khá thích nó vì nó giúp trong việc khám phá âm nhạc. Tuy nhiên, tôi phải nói, Shazam cũng giúp khám phá âm nhạc ít nhất là khi tôi bước vào một quán cà phê và tôi bảo, “Ồ, cái gì vậy?” Nhưng đó là lý do tại sao họ xây dựng chúng, phải không? Hãy nghĩ về YouTube, đúng không? Bây giờ, có đăng ký trên YouTube, nhưng hầu hết mọi người không sử dụng nó như vậy. Và sắp xếp mọi video trên YouTube theo thứ tự thời gian không có ý nghĩa. Vì vậy, có một số lập luận nói rằng, “Chúng ta không nên có các thuật toán đề xuất.” Và tôi nghĩ khi người ta nghĩ về điều đó, họ nghĩ về Twitter hoặc Facebook, nơi theo dõi người khác là một cách cơ bản bạn sử dụng nền tảng và một nguồn cấp điện cho dữ liệu đồng hồ cơ bản. Nhưng một dòng lập luận nhất định là như, “Chúng ta không nên có các thuật toán đề xuất.” Và tôi nghĩ khi người ta nghĩ về điều đó, họ nghĩ về Twitter hoặc Facebook, nơi theo dõi người khác là một cách cơ bản bạn sử dụng nền tảng và một nguồn cấp điện cho dữ liệu đồng hồ cơ bản. Nhưng một luồng thời gian của mọi bài báo không có ý nghĩa. Bạn muốn cái gì đó khác.
Lauren Goode: Jonathan, tôi cảm thấy như chúng ta có thể nói về những thứ này mãi mãi, nhưng chúng ta sẽ phải kết thúc phần này và có một giờ nghỉ ngơi ngắn, và khi quay lại, chúng ta sẽ tự đề xuất những gì chúng ta chọn theo cách của con người.
[Nghỉ]
Lauren Goode: Được rồi. Nhưng với khách mời danh dự của chúng ta trong tuần này, bạn được phép đi trước. Đề xuất của bạn là gì?
Jonathan Stray: Được. Vậy nên công việc phụ của tôi là xung đột chính trị, điều này cũng liên quan đến hệ thống đề xuất.
Lauren Goode: Wow, tôi nghĩ bạn sẽ nói về pickleball hoặc cái gì đó.
Jonathan Stray: Không. Ý tôi là, tôi cũng là một nghệ sĩ biểu diễn không chuyên nghiệp. Tôi biểu diễn trên dây, đó là—
Lauren Goode: Cool.
Jonathan Stray: … phần thứ hai của tôi. Tôi quản lý một dự án gọi là Better Conflict Bulletin, và đó là về cách tạo ra một cuộc chiến văn hóa tốt hơn: betterconflictbulletin.org. Và vì vậy, tôi đọc mọi cuốn sách về phân cực, và đề xuất của tôi, nếu bạn muốn đọc một cuốn sách về phân cực, hãy đọc The Way Out của Peter Coleman. Anh ấy điều hành một tổ chức gọi là Difficult Conversations Lab tại Đại học Columbia, nơi ông đưa mọi người vào một phòng và yêu cầu họ trò chuyện về mọi thứ gây tranh cãi. Anh ấy cũng có liên kết sâu rộng với cộng đồng xây dựng hòa bình quốc tế. Và vì vậy, tôi nghĩ đây là cuốn sách tốt nhất về phân cực.
Lauren Goode: Anh ấy có công việc phụ như một tư vấn hôn nhân không?
Jonathan Stray: Thật hài hước khi bạn nói vậy, vì một số người làm việc về phân cực đã bắt đầu làm tư vấn hôn nhân. Đó là Braver Angels, một tổ chức trong lĩnh vực này. Phiên hội thoại nhóm đầu tiên của họ được thiết kế bởi một chuyên gia tư vấn hôn nhân.
Lauren Goode: Thật hấp dẫn. Anh có tham gia vào những thử nghiệm này không? Anh đã ở trong phòng đó chưa?
Jonathan Stray: Tôi đã thấy phòng thí nghiệm. Tôi chưa bao giờ ở trong phòng thí nghiệm. Tôi có lẽ sẽ là một đối tượng kém, vì tôi biết quá nhiều về khoa học đang được thực hiện.
Michael Calore: Đúng vậy.
Lauren Goode: Đó là một đề xuất tuyệt vời. Cuốn sách ra mắt khi nào anh ấy ạ?
Jonathan Stray: Chỉ trong năm nay hoặc cuối năm ngoái, tôi đoán vậy.
Lauren Goode: Tuyệt vời. Nghe có vẻ như điều chúng ta tất cả đều cần. Mike, đề xuất của bạn là gì?
Michael Calore: Tôi muốn đề xuất một cuốn sách đã ra mắt vào cuối năm ngoái nữa. Đó là của Jon Raymond, nhà tiểu thuyết, với tiêu đề Phủ Nhận. Đó là một câu chuyện khoa học viễn tưởng. Cốt truyện diễn ra khoảng 30 năm trong tương lai và liên quan đến một nhà báo. Nói về một nhà báo đang cố gắng theo dõi những người phủ nhận biến đổi khí hậu. Có một sự quyết tâm trong tương lai tương lai này khi chúng ta đưa tất cả các nhà điều hành từ các công ty năng lượng ra xét xử và trừng phạt họ vì sự phá hủy mà họ gây ra cho hành tinh. Vì vậy, nhà báo này đi tìm kiếm một số nhà điều hành năng lượng đã bỏ chạy và từ chối xét xử và đơn giản trở thành những người tị nạn. Đó là một cuốn sách thú vị, vì nó vừa là một câu chuyện trinh thám và là câu chuyện về một nhà báo cố gắng làm sáng tỏ về những người tị nạn này. Nhưng đồng thời cũng là câu chuyện về tương lai và nhìn nhận về tương lai gần. Điều tôi thích nhất ở cuốn sách là đó là một câu chuyện khoa học viễn tưởng về tương lai mà không mải mê về công nghệ. Điện thoại vẫn là điện thoại. Sách vẫn là sách. Xe ô tô vẫn là xe ô tô. Và có một số khác biệt thú vị, nhưng nó không đào sâu vào đó nhiều. Nó thực sự đi sâu vào mối quan hệ của chúng ta với khí hậu và cách mọi người 30 năm nữa trải qua biến đổi khí hậu. Nhưng nó không làm điều đó theo cách khoa học, mà nó thực sự làm điều đó một cách rất thực tế và thực tế.
Lauren Goode: Oh, thú vị. Chúng ta không phải ai cũng sống qua kính thực tế ảo, như vậy đấy.
Michael Calore: Đúng. Trong cuốn sách có kính thực tế ảo, nhưng nó không phải là một vấn đề lớn. Nó chỉ là một phần của cuộc sống hàng ngày. Dù sao, tôi rất thích nó. Phủ Nhận, của Jon Raymond.
Lauren Goode: Chúng ta cũng nên đề cập rằng Jonathan ở đây đã từng làm nhà báo.
Michael Calore: Ôi, vậy à?
Lauren Goode: Nói về những nhà báo.
Jonathan Stray: Vâng. Thực sự, tôi nghiên cứu về Trí tuệ Nhân tạo, truyền thông và xung đột. Tôi từng có một sự nghiệp trong lĩnh vực khoa học máy tính và sau đó làm báo. Tôi từng là biên tập viên tại Associate Press và làm việc cho ProPublica một thời gian. Đó là lý do tại sao tôi kết hợp những quan tâm này.
Lauren Goode: Liệu bạn có bao giờ được giao một câu chuyện phải săn đuổi, không biết, Giám đốc điều hành của Shell chẳng hạn?
Jonathan Stray: Không. Ý tôi là đây chắc chắn là một cuốn sách hư cấu. Ý tưởng rằng các nhà quản lý năng lượng sẽ bị truy tố về vấn đề biến đổi khí hậu. Tôi không thấy điều đó xảy ra trong thực tế.
Michael Calore: Trong cuốn sách, đó là một phần của một giai đoạn xã hội rối bời mà họ gọi là “cuộc nổi loạn,” nơi thực sự xã hội đã đủ chấp nhận và đòi hỏi sự thay đổi ở mức độ cao như vậy. Vì vậy, tôi không biết. Điều đó có vẻ lạc quan, tôi đoán.
Jonathan Stray: Đúng đấy. Tôi có nghĩa là, có lẽ đang xảy ra điều đó ngay bây giờ. Chắc chắn cảm giác như chúng ta đang trong một giai đoạn thay đổi văn hóa nhanh chóng. Và một trong những câu hỏi lớn tôi muốn biết là, làm thế nào chúng ta quản lý điều đó mà không ghét nhau khi mọi người không đồng ý?
Michael Calore: Vâng. Tất cả chúng ta cần đọc cuốn sách về xung đột.
Jonathan Stray: Đúng rồi.
Michael Calore: Lauren, đề xuất của bạn là gì?
Lauren Goode: Đề xuất của tôi có một vài tầng lớp. Bây giờ, tôi sẽ bắt đầu với hai từ cho bạn, Mike, “túi hạt.” OK, để tôi giải thích một chút. Vì vậy, phần đầu tiên là bạn nên đọc câu chuyện của Matt Reynolds trên MYTOUR về một cách mới để nghĩ về thức ăn. Bây giờ, đây không phải là nội dung chế độ dinh dưỡng. Tôi không bình luận về các tranh cãi về Ozempic ở đây, nếu đó là cách bạn phát âm nó. Câu chuyện kể về cách một số nhà khoa học đang tìm cách phân loại lại mức độ lành mạnh của chế độ ăn của chúng ta dựa trên lượng thực phẩm chế biến chúng ta ăn thay vì nhìn vào những thứ như chất béo, đường và muối. Bài viết rất tuyệt. Đã là một trong những bài viết được đọc nhiều nhất trên MYTOUR.com trong vài tuần qua. Mọi người đang đọc nó. Bạn nên đọc nó. Nhưng kết quả của việc đọc bài viết này trong tuần qua, tôi đã đọc những nhãn mà trước đây tôi chưa từng đọc. Tôi đang tìm kiếm những dấu hiệu lén lút của thực phẩm chế biến, và tôi uống rất nhiều sữa hạt hạnh nhân. Tôi uống nó trong cà phê mỗi ngày, nhiều lần trong một ngày. Và tôi tình cờ đang nhìn vào phía sau hộp sữa hạt hạnh nhân của tôi, và tôi sẽ không nói là của hãng nào. Và nó có, ngoài nước và hạnh nhân, còn chứa canxi cacbonat, lecithin hướng dương.
Jonathan Stray: Lecithin.
Lauren Goode: Cảm ơn bạn. Lecithin, muối biển, hương vị tự nhiên, gum đậu carrageenan. Gellan hoặc gellan gum? Citrate kali, và cetera, và cetera. Vì gợi ý của Mike, cuối tuần này tôi sẽ mua một túi hạt hạnh nhân, và bạn có thể sử dụng túi hạt hạnh nhân thân thiện với môi trường bạn đã chia sẻ với tôi. Nó giống như chín đô.
Michael Calore: Và đây là một chiếc túi. Đó là một chiếc túi bằng loại vải bông loại muslin.
Lauren Goode: Chưa tẩy trắng.
Michael Calore: Bạn sử dụng để làm sữa hạt hạnh nhân.
Lauren Goode: Đúng. Tôi sẽ ngâm một số hạt hạnh nhân, và tôi sẽ thử làm sữa hạt hạnh nhân của mình, chúng ta sẽ xem điều này diễn ra như thế nào.
Michael Calore: Tôi nghĩ bạn sẽ thích nó.
Lauren Goode: Tôi nghĩ tôi cũng vậy, nếu tôi nhớ ngâm hạt hạnh nhân trước.
Michael Calore: Đúng.
Lauren Goode: Sẽ có một cuộc trò chuyện lớn về tác động của việc làm sữa hạt hạnh nhân đến nguồn nước, vì không có gì là không tác động đến môi trường ngày nay, nhưng chúng ta sẽ lo lắng về điều đó vào một ngày khác. Hãy quay lại tuần sau để nghe xem thử thí nghiệm sữa hạt hạnh nhân diễn ra như thế nào. Đó là đề xuất của tôi.
Jonathan Stray: Đó là một đề xuất thật là lành mạnh. Ấn tượng đấy.
Lauren Goode: Jonathan, tôi cảm thấy như bạn sẽ hiểu chúng tôi vì bạn đang kết nối từ Berkeley. Tôi đang trở nên rất San Francisco. Mike đã khiến tôi đạp xe vào văn phòng nhiều hơn. Tôi đang tự làm sữa hạt hạnh nhân của mình. Ý tôi là, mọi thứ đang diễn ra. Mọi thứ đều đang diễn ra.
Michael Calore: Tôi rất vui mừng vì tôi đang có ảnh hưởng tích cực đến cuộc sống của bạn, Lauren.
Jonathan Stray: Bạn có starter sourdough riêng của mình bây giờ à?
Lauren Goode: Có, trong thời đại đại dịch, nhưng không kéo dài được lâu. Tên nó là Henry. Nó tuyệt lắm. Còn bạn, bạn có của bạn không?
Jonathan Stray: Không. Tôi có một người bạn cùng sống có starter sourdough, nhưng tôi để người khác lo lắng về vi khuẩn vi sinh vật.
Lauren Goode: Và sau đó, bạn ăn bánh mì sourdough mà người bạn cùng sống làm phải không?
Jonathan Stray: Dĩ nhiên.
Lauren Goode: Tất nhiên. Bạn phải là một người thử nghiệm. Bạn như là, “Tôi phải nghiên cứu điều này.” Jonathan, cảm ơn bạn rất nhiều vì đã tham gia chúng tôi trong tập này của Gadget Lab. Điều này thực sự làm sáng tỏ và rất vui.
Jonathan Stray: Bạn chưa chán về Mục 230 à?
Lauren Goode: Không. Chúng ta có thể tiếp tục thêm một giờ nữa có lẽ. Chúng ta sẽ để người nghe của chúng ta nghỉ ngơi, vì họ có lẽ đã chán rồi, nhưng chúng ta chỉ cứ tiếp tục đi.
Jonathan Stray: Dĩ nhiên. OK, tuyệt vời.
Lauren Goode: Và cảm ơn tất cả các bạn đã lắng nghe. Nếu bạn có phản hồi, bạn có thể tìm thấy chúng tôi trên Twitter. Chỉ cần kiểm tra ghi chú của chương trình. Jonathan, cho chúng tôi biết tên tài khoản Twitter của bạn.
Jonathan Stray: Jonathan Stray trên Twitter.
Lauren Goode: Tuyệt vời. Và nhà sản xuất của chúng tôi là Boone Ashworth xuất sắc. Tạm biệt tạm thời. Chúng tôi sẽ quay lại tuần sau.
[Gadget Lab đang phát nhạc nền kết thúc]
