Chuyện Gì Xảy Ra Khi Trí Tuệ Nhân Tạo Biết Cảm Xúc Của Bạn?

Tháng 5 năm 2021, Twitter, một nền tảng nổi tiếng về lạm dụng và sự nóng nảy, triển khai tính năng “gợi ý” mà đề xuất người dùng nghĩ lại trước khi gửi tweet. Tháng sau đó, Facebook công bố “cảnh báo xung đột” của trí tuệ nhân tạo cho các nhóm, để quản trị viên có thể thực hiện biện pháp khi có “cuộc trò chuyện gây tranh cãi hoặc không lành mạnh”. Các câu trả lời tự động thông minh qua email và tin nhắn hoàn thành hàng tỷ câu cho chúng ta mỗi ngày. Amazon’s Halo, ra mắt vào năm 2020, là một dây đeo tập thể dục theo dõi cảm xúc từ giọng điệu của bạn. Sức khỏe không chỉ là việc theo dõi nhịp tim hoặc đếm bước chân, mà còn là cách chúng ta hiện diện với những người xung quanh. Công cụ trị liệu theo thuật toán đang được phát triển để dự đoán và ngăn chặn hành vi tiêu cực.
Jeff Hancock, một giáo sư truyền thông tại Đại học Stanford, định nghĩa truyền thông trí tuệ nhân tạo là khi “một tác nhân thông minh hoạt động thay mặt cho người truyền thông bằng cách sửa đổi, bổ sung hoặc tạo ra các thông điệp để đạt được mục tiêu truyền thông.” Theo ông, công nghệ này đã được triển khai ở quy mô lớn.
Dưới tất cả đó là niềm tin ngày càng tăng rằng mối quan hệ của chúng ta chỉ cách nhau một chút nữa là hoàn hảo. Kể từ đầu đại dịch, nhiều mối quan hệ của chúng ta phụ thuộc vào các kênh truyền thông qua máy tính hơn. Trong đại dương bất tận của những mâu thuẫn trực tuyến, những thông điệp độc hại trên Slack và những cuộc họp Zoom vô tận, liệu thuật toán có giúp chúng ta tốt hơn với nhau không? Liệu ứng dụng có đọc được cảm xúc của chúng ta tốt hơn chúng ta không? Hoặc việc outsouring truyền thông của chúng ta cho trí tuệ nhân tạo có làm mòn đi những điều làm cho mối quan hệ con người làm người?
Việc chuyển giao quyền quyết định cho một ứng dụng trong các cuộc đàm phán đầy cảm xúc như vậy không phải là điều không gặp vấn đề. Kissoon cẩn thận không để ToneMeter đánh giá phụ huynh dựa trên mức độ tích cực hoặc tiêu cực của họ, và Karpf nói rằng anh ấy đã thấy một ảnh hưởng rõ ràng đối với hành vi của người dùng. “Các giao tiếp trở nên càng ngày càng cơ học,” anh ta nói. “Bây giờ bạn đang viết cho một đối tượng, đúng không?”
Các ứng dụng chăm sóc con chung có thể giúp đỡ hướng dẫn mối quan hệ khó khăn, nhưng chúng không thể giải quyết mọi vấn đề. Đôi khi, chúng có thể làm tình hình trở nên tồi tệ hơn. Karpf nói rằng một số phụ huynh sử dụng ứng dụng như một vũ khí và gửi các tin nhắn “bait” để kích thích cảm xúc và thách thức đối phương gửi một tin nhắn gây vấn đề: “Một phụ huynh khó chịu sẽ luôn là một phụ huynh khó chịu”. Kisson nhớ lại cuộc trò chuyện mà anh ta có với một thẩm phán khi ông ra mắt chương trình thử nghiệm. “Cái đặc biệt về công cụ là tôi có thể đưa cho bạn một cây vít và bạn có thể sửa nhiều thứ với nó,” thẩm phán nói. “Hoặc bạn có thể đâm mắt mình.”
Năm 2017, Adela Timmons là một sinh viên nghiên cứu tiến sĩ chuyên ngành tâm lý thực hiện thực tập lâm sàng tại Đại học California, San Francisco và Bệnh viện San Francisco General, nơi cô làm việc với các gia đình có trẻ nhỏ đến từ nền kinh tế thấp đã tiếp xúc với trauma. Trong thời gian đó, cô nhận thấy một mô hình nổi lên: Bệnh nhân tiến triển trong tư vấn chỉ để mất đi trong hỗn loạn của cuộc sống hàng ngày giữa các buổi tư vấn. Cô tin rằng công nghệ có thể 'nối khoảng cách giữa phòng tư vấn và thế giới thực' và nhìn thấy tiềm năng cho công nghệ đeo được có thể can thiệp ngay lúc một vấn đề đang diễn ra.
Trong lĩnh vực này, đây được gọi là 'Can thiệp Thích ứng Đúng lúc.' Lý thuyết, nó giống như có một bác sĩ tâm lý sẵn sàng thì tai bạn khi chuông báo động tâm lý kêu. 'Nhưng để làm điều này một cách hiệu quả,' nói Timmons, nay là giám đốc Laboratoire Technologique pour les Interventions dans les Écosystèmes (TIES) tại Đại học Quốc tế Florida, 'bạn phải cảm nhận những hành vi quan trọng hoặc phát hiện chúng từ xa.'
Nghiên cứu của Timmons, liên quan đến việc xây dựng mô hình tính toán về hành vi con người, tập trung vào việc tạo ra thuật toán có thể dự đoán hành vi của các cặp vợ chồng và gia đình một cách hiệu quả. Ban đầu, cô tập trung vào cặp đôi. Đối với một nghiên cứu, nhóm nghiên cứu kết nối 34 cặp vợ chồng trẻ với các thiết bị đeo cổ tay và ngực và theo dõi nhiệt độ cơ thể, nhịp tim và mồ hôi. Họ cũng cho họ điện thoại thông minh để nghe cuộc trò chuyện của họ. Bằng cách tương quan dữ liệu này với cuộc khảo sát hàng giờ trong đó cặp đôi mô tả tình trạng tâm lý của họ và mọi cuộc cãi lộn, Timmons và đội ngũ của cô phát triển mô hình để xác định khi nào một cặp đôi có khả năng cao gặp xung đột. Yếu tố kích thích sẽ là nhịp tim cao, sử dụng từ ngữ như 'bạn,' và yếu tố ngữ cảnh, như thời gian trong ngày hoặc ánh sáng trong phòng. 'Không có một biến số đơn lẻ nào được tính là một chỉ số mạnh mẽ của một cuộc cãi lộn không thể tránh khỏi,' Timmons giải thích (tuy nhiên, lái xe trong giao thông ở LA là một yếu tố lớn), 'nhưng khi bạn có nhiều thông tin khác nhau được sử dụng trong một mô hình, kết hợp, bạn có thể tiến gần hơn đến mức độ chính xác cho một thuật toán có thể thực sự hoạt động trong thế giới thực.'
Timmons đang mở rộng các mô hình này để xem xét động lực gia đình, tập trung vào việc cải thiện mối quan hệ giữa phụ huynh và con cái. TIES đang phát triển các ứng dụng di động nhằm cảm nhận tích cực các tương tác bằng cách sử dụng điện thoại thông minh, Fitbits và Apple Watches (ý tưởng là nó nên hoạt động với công nghệ tiêu dùng hiện tại). Trước hết, dữ liệu được thu thập—chủ yếu là nhịp tim, giọng điệu và ngôn ngữ. Thiết bị cũng cảm nhận hoạt động vận động và liệu pháp có đang cùng nhau hay không giữa phụ huynh và con cái.
Trong nghiên cứu về cặp đôi, thuật toán đạt độ chính xác 86% trong việc phát hiện xung đột và có thể tạo ra một liên kết với trạng thái tâm lý tự báo cáo. Trong ngữ cảnh gia đình, hy vọng là bằng cách phát hiện những trạng thái này, ứng dụng sẽ có khả năng can thiệp tích cực. 'Nó có thể là một gợi ý, như 'đi ôm con đi' hoặc 'nói với con điều gì đó mà anh ấy hoặc cô ấy đã làm tốt hôm nay,'' nói Timmons. 'Chúng tôi cũng đang làm việc trên các thuật toán có thể phát hiện các trạng thái tiêu cực và sau đó gửi can thiệp để giúp phụ huynh kiểm soát cảm xúc của họ. Chúng tôi biết rằng khi tình cảm của một phụ huynh được kiểm soát, mọi thứ th tend đến điều này.'
Thông tin ngữ cảnh giúp cải thiện tỷ lệ dự đoán: Người đó đã ngủ ngon vào đêm trước đó chưa? Họ đã tập thể dục trong ngày đó chưa? Gợi ý có thể là một đề xuất để thiền, thử một bài tập thở, hoặc tham gia một số kỹ thuật terapia hành vi nhận thức. Các ứng dụng nhận thức đã tồn tại, nhưng chúng phụ thuộc vào người dùng nhớ sử dụng nó vào thời điểm họ có thể tức giận, buồn bã, hoặc bị áp đặt cảm xúc. 'Thực sự là trong những khoảnh khắc đó mà bạn ít có khả năng sử dụng tài nguyên nhận thức của mình,' nói Timmons. 'Hy vọng là chúng tôi có thể gặp gỡ người đó ở nửa đường bằng cách thông báo cho họ về khoảnh khắc mà họ cần sử dụng những kỹ năng đó.' Từ kinh nghiệm làm việc với gia đình, cấu trúc truyền thống của tư vấn—50 phút mỗi tuần—không nhất thiết là cách hiệu quả nhất để tạo ra ảnh hưởng. 'Tôi nghĩ rằng lĩnh vực đang bắt đầu quan tâm rõ hơn về việc chúng ta có thể mở rộng khoa học can thiệp tâm lý.'
Công việc được hỗ trợ bởi một đợt trợ cấp từ Viện Y tế Quốc gia và Quỹ Khoa học Quốc gia như một phần của quỹ để tạo ra các hệ thống công nghệ có thể kinh doanh, và Timmons hy vọng rằng nghiên cứu sẽ dẫn đến chăm sóc sức khỏe tâm lý có thể tiếp cận, mở rộng và bền vững. Khi phòng thí nghiệm của cô có dữ liệu để chứng minh nó là hiệu quả và an toàn cho gia đình—và không gây ra hậu quả không mong muốn—thì quyết định sẽ cần được đưa ra về cách công nghệ như vậy có thể triển khai.
Khi chăm sóc sức khỏe dựa trên dữ liệu mở rộng, quyền riêng tư là một mối quan tâm. Apple là công ty công nghệ lớn nhất mới nhất mở rộng vào không gian này; nó đang tiến hành một nghiên cứu ba năm với các nhà nghiên cứu tại Đại học California, Los Angeles, được khởi động vào năm 2020, để xác định liệu iPhone và Apple Watches có thể phát hiện—và, vào cùng một lúc, dự đoán và can thiệp—trong các trường hợp trầm cảm và rối loạn tâm lý khác. Dữ liệu sẽ được thu thập từ camera và cảm biến âm thanh của iPhone, cũng như cử động của người dùng và thậm chí cách họ gõ trên thiết bị của họ. Apple dự định bảo vệ dữ liệu người dùng bằng cách có thuật toán trên chính chiếc điện thoại, không có gì được gửi đến máy chủ của họ.
Tại phòng thí nghiệm TIES, Timmons nói rằng không có dữ liệu nào được bán hoặc chia sẻ, trừ trường hợp liên quan đến tổn thương hoặc lạm dụng. Cô tin rằng quan trọng là các nhà khoa học phát triển các công nghệ này nghĩ về việc sử dụng sai mục tiêu có thể xảy ra: 'Đây là trách nhiệm chung của cộng đồng khoa học với những người làm luật và công dân để thiết lập các giới hạn và ranh giới chấp nhận được trong không gian này.'
Bước tiếp theo là kiểm tra mô hình theo thời gian thực để xem liệu chúng có hiệu quả và liệu gợi ý từ điện thoại di động có thực sự dẫn đến sự thay đổi hành vi có ý nghĩa hay không. 'Chúng tôi có nhiều lý do và lý thuyết tốt để nghĩ rằng đó sẽ là một cơ chế can thiệp rất mạnh mẽ,' Timmons nói. 'Chỉ là chúng tôi vẫn chưa biết chúng hoạt động như thế nào trong thế giới thực.'
Ý tưởng rằng cảm biến và thuật toán có thể hiểu rõ sự phức tạp của tương tác con người không mới. Đối với nhà tâm lý học mối quan hệ John Gottman, tình yêu luôn là một trò chơi số. Kể từ những năm 1970, ông đã cố gắng định量和分析 môi chất của mối quan hệ.
Gottman đã tiến hành nghiên cứu về các cặp đôi, nổi tiếng nhất là tại “Love Lab,” một trung tâm nghiên cứu tại Đại học Washington mà ông thành lập vào những năm 1980. Một phiên bản của Love Lab vẫn hoạt động đến ngày nay tại Viện Gottman ở Seattle, được ông và vợ, Julie Gottman, cũng là một nhà tâm lý học, thành lập vào năm 1996. Theo cách nói chung của các bộ phim hài lãng mạn, Love Lab giống như đoạn mở đầu của When Harry Met Sally kết hợp với cảnh trong Meet the Parents khi Robert De Niro kết nối con rể tương lai của mình với máy kiểm tra nói dối. Mọi người được kết nối theo cặp và được yêu cầu trò chuyện với nhau—đầu tiên về lịch sử mối quan hệ của họ, sau đó về một xung đột—trong khi các thiết bị theo dõi nhịp tim, mồ hôi, giọng điệu và mức độ dao động trong ghế của họ. Ở phòng sau, mọi biểu cảm khuôn mặt được mã hóa bởi các nhân viên được đào tạo. Mục tiêu của Love Lab là thu thập dữ liệu về cách các cặp đôi tương tác và truyền đạt cảm xúc của họ.
Nghiên cứu này đã dẫn đến phương pháp “phương pháp Gottman,” một phương pháp tư vấn mối quan hệ. Việc quan trọng là duy trì tỷ lệ 5:1 giữa các tương tác tích cực và tiêu cực; rằng mất 33 phần trăm để phản ứng lại một sự chú ý của đối tác đồng nghĩa với một “thảm họa”; và rằng những cái nhìn lên trời mắt rất có liên quan đến sự đổ vỡ hôn nhân. “Mối quan hệ không phải là điều phức tạp,” John Gottman nói, nói từ nhà của ông ở đảo Orcas, Washington.
Cặp vợ chồng Gottman cũng bước vào lĩnh vực trí tuệ nhân tạo. Năm 2018, họ thành lập một công ty khởi nghiệp, Affective Software, để tạo ra một nền tảng trực tuyến để đánh giá và hướng dẫn mối quan hệ. Nó bắt đầu từ một tương tác trực tiếp; một tình bạn đã được kích thích nhiều năm trước khi Julie Gottman gặp Rafael Lisitsa, một cựu binh của Microsoft, khi họ đưa con gái của họ ra khỏi cổng trường. Lisitsa, người đồng sáng lập và CEO của Affective Software, đang phát triển một phiên bản ảo của Love Lab, trong đó các cặp đôi có thể nhận chẩn đoán “tia X” của mối quan hệ của họ thông qua camera trên máy tính, iPhone hoặc máy tính bảng của họ. Một lần nữa, biểu cảm khuôn mặt và giọng điệu được theo dõi, cũng như nhịp tim. Điều này là một chỉ báo cho việc trí tuệ nhân tạo phát hiện cảm xúc, hoặc “affective computing” đã đi xa đến đâu; mặc dù Love Lab ban đầu được hỗ trợ bởi màn hình và thiết bị, nhưng cuối cùng lại cần một người được đào tạo đặc biệt để xem theo dõi và mã hóa đúng mỗi dấu hiệu.
Không phải ai cũng tin rằng máy có thể làm điều này. Trí tuệ nhân tạo phát hiện cảm xúc là lĩnh vực gập ghềnh. Nó chủ yếu dựa trên ý tưởng rằng con người có biểu hiện cảm xúc phổ quát—một lý thuyết được phát triển vào những năm 1960 và 1970 với các quan sát của Paul Ekman, người đã tạo ra một hệ thống mã hóa biểu hiện khuôn mặt thông tin cho công việc của Gottmans và là cơ sở của nhiều phần mềm affective computing. Một số nghiên cứu viên, như nhà tâm lý học Lisa Feldman Barrett của Đại học Northeastern, đã đặt câu hỏi liệu có thể phát hiện cảm xúc từ biểu hiện khuôn mặt một cách đáng tin cậy hay không. Và mặc dù phần mềm nhận dạng khuôn mặt đã được sử dụng rộng rãi, một số nghiên cứu so sánh hai chương trình phổ biến đã cho thấy chúng gán nhiều cảm xúc tiêu cực hơn cho khuôn mặt người da đen so với người da trắng. Gottman nói rằng Love Lab ảo được đào tạo trên bộ dữ liệu khuôn mặt bao gồm tất cả các loại da và hệ thống của ông để mã hóa tương tác đã được kiểm tra trên các nhóm khác nhau ở Mỹ, bao gồm cả nhóm người Mỹ gốc Phi và người Mỹ gốc Á. “Chúng tôi biết văn hóa thực sự ảnh hưởng đến cách mọi người bày tỏ hoặc che giấu cảm xúc,” ông nói. “Chúng tôi đã nghiên cứu ở Úc, Anh, Hàn Quốc và Thổ Nhĩ Kỳ. Và có vẻ như hệ thống cụ thể về cảm xúc mà tôi đã phát triển thực sự hoạt động. Bây giờ, liệu nó có hoạt động ở tất cả các nền văn hóa không? Chúng tôi thực sự không biết.”
Gottman cho biết rằng Love Lab thực sự hoạt động thông qua một hệ thống mã hóa xã hội; bằng cách nhận vào nội dung của cuộc trò chuyện, giọng điệu, cử chỉ cơ thể và biểu cảm, nó ít tập trung hơn vào việc phát hiện một cảm xúc duy nhất trong khoảnh khắc và thay vào đó phân tích các đặc tính tổng thể của một tương tác. Ghép chúng lại, theo Gottman, và bạn có thể đưa ra một phân loại như tức giận, buồn bã, sởn lòng, khinh bỉ. Khi một cặp đôi tham gia, họ được mời trả lời một bảng câu hỏi chi tiết, sau đó ghi lại hai cuộc trò chuyện 10 phút. Một cuộc thảo luận về tuần trước; còn một cuộc trò chuyện về một xung đột. Sau khi tải lên video, cặp đôi đánh giá tình trạng tâm lý của họ trong các giai đoạn khác nhau của cuộc trò chuyện, từ 1 (rất tiêu cực) đến 10 (rất tích cực). Ứng dụng sau đó phân tích điều này, cùng với các dấu hiệu phát hiện được, và cung cấp kết quả bao gồm tỷ lệ tích cực- tiêu cực, một thước đo tin cậy và sự phổ biến của “Bốn Kỵ Sĩ của Sự Thiêng Liêng”: phê phán, phòng thủ, khinh bỉ và lạnh lùng. Được thiết kế để sử dụng kết hợp với một bác sĩ tâm lý.
Dịch vụ tâm lý và tư vấn tâm thần ngày càng được cung cấp thông qua cuộc gọi video—kể từ đại dịch, sự chuyển đổi này đã được tăng tốc. Đầu tư rủi ro trong chăm sóc ảo và sức khỏe số đã tăng gấp ba kể từ Covid-19, theo các nhà phân tích tại McKinsey, và trí tuệ nhân tạo chatbot tư vấn tâm thần, như Woebot, đang trở nên phổ biến. Ứng dụng tư vấn mối quan hệ như Lasting đã dựa trên phương pháp Gottman và gửi thông báo để nhắc nhở người dùng, ví dụ như, để nói với đối tác rằng họ yêu thương họ. Mọi người có thể tưởng tượng điều này khiến chúng ta trở nên lười biếng, nhưng cặp vợ chồng Gottman nhìn nhận đó là một quá trình giáo dục—trang bị chúng ta với các công cụ sẽ cuối cùng trở thành tự nhiên thứ hai. Đội ngũ hiện đang nghĩ về một phiên bản đơn giản hóa có thể sử dụng độc lập mà không cần một bác sĩ tâm lý.
Đối với cặp vợ chồng Gottman, nguồn cảm hứng đến từ việc rằng nhiều cặp đôi đều mắc kẹt trên điện thoại thông minh của họ, công nghệ mở ra một cách để phổ cập tư vấn. “Mọi người đang trở nên thoải mái hơn với công nghệ như một ngôn ngữ,” Gottman nói. “Và như một công cụ để cải thiện cuộc sống của họ mọi lúc mọi nơi.”
Công nghệ này đã lan tỏa khắp mọi nơi. Nó có thể ảnh hưởng đến mối quan hệ của bạn mà bạn không để ý. Hãy xem xét Smart Reply của Gmail—những gợi ý về cách bạn có thể phản hồi một email—và Smart Compose, một tính năng đề xuất hoàn thành câu của bạn. Smart Reply được thêm vào như một tính năng di động vào năm 2015, Smart Compose triển khai vào năm 2018; cả hai đều được trang bị bởi mạng nơ-ron.
Jess Hohenstein, một nghiên cứu sinh tiến sĩ tại Đại học Cornell, lần đầu tiên gặp Smart Reply khi ứng dụng nhắn tin Google Allo, hiện đã ngừng hoạt động, ra mắt vào năm 2016. Nó có một trợ lý ảo tạo ra gợi ý trả lời. Cô thấy nó kỳ lạ: “Tôi không muốn một thuật toán nào ảnh hưởng đến cách diễn đạt của tôi, nhưng tôi nghĩ rằng điều này phải ảnh hưởng đến tôi.”
Trong năm 2019, cô thực hiện các nghiên cứu và phát hiện rằng trí tuệ nhân tạo thực sự đang thay đổi cách chúng ta tương tác và liên quan đến nhau. Trong một nghiên cứu sử dụng Google Allo, 113 sinh viên đại học được yêu cầu hoàn thành một nhiệm vụ với một đối tác, trong đó một, cả hai hoặc không ai trong số họ có thể sử dụng Smart Reply. Sau đó, các tham gia được hỏi mức độ họ quy attributedê thành công hoặc thất bại của nhiệm vụ cho người khác (hoặc trí tuệ nhân tạo) trong cuộc trò chuyện. Một nghiên cứu thứ hai tập trung vào tác động ngôn ngữ; cách mọi người phản ứng với các trả lời “thông minh” tích cực hoặc tiêu cực.
Hohenstein phát hiện rằng ngôn ngữ mà mọi người sử dụng với Smart Reply nghiêng về tích cực. Người ta có xu hướng chấp nhận gợi ý tích cực hơn là gợi ý tiêu cực—các tham gia cũng thường xuyên thấy họ đang muốn phản đối, nhưng chỉ được đề xuất những ý kiến đồng thuận. Hiệu ứng làm cho cuộc trò chuyện diễn ra nhanh hơn và mượt mà hơn—Hohenstein nhận thấy điều này khiến mọi người trong cuộc trò chuyện cảm thấy tốt hơn về nhau.
Hohenstein nghĩ rằng điều này có thể trở nên không hiệu quả trong mối quan hệ chuyên nghiệp: Công nghệ này (kết hợp với sự dễ tán thành của chúng ta) có thể làm chúng ta trở nên không muốn thách thức ai đó, hoặc không đồng ý chút nào. Trong việc làm cho giao tiếp của chúng ta hiệu quả hơn, trí tuệ nhân tạo cũng có thể loại bỏ những cảm xúc thực sự của chúng ta, giảm trao đổi thành những “thích nó!” và “nghe có vẻ tốt!” đối với nhau. Đối với những người làm việc trong môi trường nơi họ thường xuyên gặp khó khăn khi nói lên ý kiến của mình, điều này có thể làm tăng sự không khuyến khích.
Trong nghiên cứu hoàn thành nhiệm vụ, Hohenstein phát hiện rằng con người đánh giá cao kết quả tích cực. Khi có điều gì đó không đúng, trí tuệ nhân tạo bị trách. Bằng cách này, thuật toán bảo vệ mối quan hệ con người và tạo ra một lớp đệm cho những sai lầm của chúng ta. Điều này đặt ra một câu hỏi sâu sắc về sự minh bạch: liệu rằng có nên tiết lộ rằng một trí tuệ nhân tạo đã giúp tạo ra một phản hồi? Khi một đối tác đang sử dụng Smart Reply, ban đầu nó khiến người nhận cảm thấy tích cực hơn về người kia. Nhưng khi được biết rằng có sự can thiệp của một trí tuệ nhân tạo, họ cảm thấy không thoải mái.
Điều này làm nền cho một nghịch lý chạy qua việc sử dụng công nghệ như vậy—sự nhận thức và hiện thực không đồng nhất. “Mọi người cảm thấy kỳ lạ về nó, nhưng nó đang cải thiện nhận thức giữa những người bạn đang giao tiếp,” Hohenstein nói. “Nó là điều ngược đảo.”
Trong bài báo của mình, Hancock nhấn mạnh cách những công cụ này “có thể có ảnh hưởng rộng rãi đối với xã hội” và đề xuất một kế hoạch nghiên cứu để đối mặt với một cuộc cách mạng công nghệ đã diễn ra dưới mũi chúng ta. Giao tiếp được trung gian bởi trí tuệ nhân tạo có thể biến đổi cách chúng ta nói chuyện, giảm thiểu độ chệch, hoặc làm trầm trọng hơn. Nó có thể khiến chúng ta tự hỏi chúng ta đang nói chuyện với ai thực sự. Nó thậm chí có thể thay đổi cách chúng ta đánh giá về bản thân. “Nếu trí tuệ nhân tạo sửa đổi các thông điệp của người gửi để trở nên tích cực hơn, vui vẻ hơn, hoặc hướng ngoại hơn, liệu nhận thức về bản thân của người gửi có chuyển hướng thành tích cực hơn, vui vẻ hơn, hoặc hướng ngoại hơn không?” ông viết. Nếu trí tuệ nhân tạo chiếm lấy quá nhiều trong mối quan hệ của chúng ta, thì chúng ta thực sự còn lại điều gì?
- 📩 Những tin tức mới nhất về công nghệ, khoa học và nhiều hơn nữa: Nhận những thông báo của chúng tôi!
- Liệu một thế giới thực số có thể được kết nối trực tiếp vào não của bạn?
- Các cơn bão trong tương lai có thể đến sớm hơn và kéo dài lâu hơn
- Metaverse là gì, đúng là gì?
- Ban nhạc nhạc game Marvel này có một câu chuyện gốc ép tráng
- Hãy cẩn trọng với “công việc linh hoạt” và ngày làm việc không bao giờ kết thúc
- 👁️ Khám phá trí tuệ nhân tạo như chưa bao giờ có với cơ sở dữ liệu mới của chúng tôi
- 🎧 Âm thanh có vẻ không đúng? Kiểm tra tai nghe không dây, thanh âm và loa Bluetooth yêu thích của chúng tôi
