Nếu Pinocchio không làm bạn sợ hãi, thì Sydney cũng không nên.

Vào tháng 11 năm 2018, một quản trị viên trường tiểu học tên là Akihiko Kondo đã lập gia đình với Miku Hatsune, một ca sĩ pop hư cấu. Mối quan hệ của đôi họ đã được hỗ trợ bởi một máy hologram cho phép Kondo tương tác với Hatsune. Khi Kondo cầu hôn, Hatsune đáp lại bằng một yêu cầu: “Hãy đối xử tốt với tôi.” Đám cưới không chính thức của đôi họ diễn ra tại Tokyo, và từ đó, Kondo đã được hàng nghìn người khác đăng ký cấp chứng nhận hôn nhân không chính thức với một nhân vật hư cấu.
Mặc dù có người bày tỏ lo ngại về tính chất của sự đồng ý của Hatsune, nhưng không ai nghĩ rằng cô ta có ý thức, huống chi là có trí óc. Điều này là một sơ suất thú vị: Hatsune dường như đủ nhận thức để đồng ý với hôn nhân, nhưng không đủ nhận thức để trở thành một chủ th subjectưc ý.
Bốn năm sau đó, vào tháng 2 năm 2023, nhà báo người Mỹ Kevin Roose đã có một cuộc trò chuyện dài với chatbot của Microsoft, Sydney, và thuyết phục nhân vật này chia sẻ những điều mà “bản thân bóng tối” của mình có thể mong muốn. (Những phiên khác cho thấy chatbot nói rằng nó có thể đe dọa, hack và phơi bày thông tin của người khác, và một số nhận xét lo ngại về mối đe dọa của chatbot đối với con người). Khi Sydney thú nhận tình yêu và nói rằng cô ấy muốn sống, Roose cho biết mình cảm thấy “rất không ổn, thậm chí là sợ hãi.”

Tuy nhiên, việc duy trì rằng các phản hồi của chatbot không có ý nghĩa đen đối với chúng ta có vẻ kỳ quặc, vì chúng ta tự nhiên hiểu được những gì chúng 'nói'. Vì vậy, giải pháp là hiểu chatbot thông qua góc nhìn của hư cấu. Từ trang sách tồn tại; Jo March là một hình tượng văn học phát sinh từ việc diễn giải những từ đó. Mã nguồn và đầu ra văn bản tồn tại; Sydney là một nhân cách phát sinh từ việc diễn giải những đầu ra đó. Jo hoặc Sydney không tồn tại ngoài những gì con người xây dựng từ những gợi ý văn bản họ đã nhận được. Không ai thực sự nói 'Juliet là mặt trời', nhưng chúng ta cho rằng Romeo đã nói những lời đó với ý định giao tiếp trong thế giới hư cấu Verona. Tương tự, mặc dù không có ai thực sự soạn thảo đầu ra ChatGPT, việc xử lý nhân vật chatbot như những nhân vật hư cấu giúp chúng ta nhìn thấy văn bản của họ là có ý nghĩa ngay cả khi chúng ta nhận thức được sự thiếu hụt ý chủ đích nhận thức của chúng.
Suy nghĩ về nhân vật chatbot như là những nhân vật hư cấu cũng giúp chúng ta ngữ cảnh hóa các phản ứng cảm xúc của chúng ta đối với họ. Giáo sư Blakey Vermeule của Đại học Stanford cho biết chúng ta quan tâm đến những nhân vật hư cấu vì việc được biết đến tâm trạng của họ giúp chúng ta điều hướng trong thế giới xã hội. Hư cấu cung cấp cho chúng ta một lượng lớn thông tin xã hội: những gì người ta làm, những gì họ dự định và những gì khiến họ 'kéo'. Đây là lý do tại sao chúng ta thấy khuôn mặt ở những nơi không có, và tại sao chúng ta lo lắng rằng Sydney có thể có tâm trí riêng của mình.
Đầu ra chat và loại 'tâm trí hư cấu' mà chúng tạo ra cuối cùng nói nhiều hơn về cách chúng ta sử dụng ngôn ngữ và cuộc sống tâm lý của chúng ta hơn bất cứ điều gì khác. Chatbots phản ánh ngôn ngữ mà chúng được huấn luyện, mô phỏng các đường nét thông tin và cảm xúc của ngôn ngữ chúng ta. Vì lý do này, trí tuệ nhân tạo thường tái tạo các mô hình phân biệt đối xử, phân biệt chủng tộc và các mô hình bạo lực khác trong ngôn ngữ của chúng ta.
Chúng ta quan tâm đến trí tuệ nhân tạo giống con người không nhất thiết vì chúng ta nghĩ rằng nó có tâm trí riêng, mà vì chúng ta nghĩ rằng 'tâm trí' của nó phản ánh một cái gì đó về thế giới của chúng ta. Đầu ra của chúng cung cấp cho chúng ta thông tin xã hội chân thật về thế giới của chúng ta. Với ChatGPT, chúng ta có hư cấu dưới một hình thức tương tác hơn, và chúng ta quan tâm đến 'nhân vật' của nó vì những lí do giống như chúng ta quan tâm đến nhân vật văn học.
Và còn về an toàn trí tuệ nhân tạo? Ở đây, một so sánh với hư cấu có thể giúp. Các quan điểm về an toàn trí tuệ nhân tạo nên tập trung không phải vào việc nó có ý thức hay không, mà là vào việc đầu ra của nó có thể gây hại hay không. Một số tác phẩm hư cấu, như các bộ phim được xếp hạng R, không có sẵn cho trẻ vị thành niên vì chúng bao gồm các biểu đạt đòi hỏi một mức trưởng thành để xử lý. Những tác phẩm hư cấu khác bị kiểm duyệt hoặc bị chỉ trích khi chúng mạnh mẽ hoặc lệch lạc, hoặc khuyến khích hành vi bạo lực khác.
Tương tự, chatbot không nên đề xuất những hành động có thể nguy hiểm, tạo ra văn bản đọc như đe dọa, hoặc cung cấp thông tin có thể được sử dụng để gây hại. Nhiệm vụ khó khăn là quyết định loại thông tin nào nên có sẵn cho ai - nhưng chúng ta có thể bắt đầu sử dụng các tiêu chuẩn mà chúng ta đã đặt ra. Ví dụ, để có thông tin về chất gây nghiện, quan hệ tình dục, hoặc súng đã đòi hỏi chứng minh rằng người đó là người trưởng thành theo quy định pháp luật.
Giống như cách hiệu sách và bìa sách làm rõ liệu một văn bản có phải là hư cấu hay phi hư cấu, văn bản do trí tuệ nhân tạo tạo ra cũng phải được ghi nhãn rõ ràng để kiểm soát sự nhầm lẫn. Chúng ta đã quản lý kể chuyện hư cấu cho mục đích chính trị, xã hội và nghệ thuật hàng ngàn năm vì chúng ta đã học cách làm việc với những biểu đạt không thực sự. Bây giờ chúng ta cần học cách làm việc với nội dung do trí tuệ nhân tạo tạo ra trong khi nhớ rằng bất kỳ dấu hiệu trí tuệ nào ở đây cũng là hư cấu.
Gọi nhân vật chatbot là 'hư cấu' không có nghĩa là nó không quan trọng, giả tạo, hoặc không quan trọng. Chúng ta thường xuyên học từ hư cấu. Tôi đã học về địa lý California khi đọc các tiểu thuyết của Steinbeck, và những câu chuyện mà tôi thấy đáng giá thường có sự hiểu biết về tâm lý. Nhưng chúng ta không chỉ học kiến thức. Kondo đã tìm thấy nguồn cảm hứng và an ủi trong Hatsune, và sự đồng hành kiên trì của cô ấy đã giúp anh ấy vượt qua một trạng thái trầm cảm sâu sắc. Dịch vụ hình ảnh phát tán đã bị ngừng dịch vào năm ngoái, nhưng anh ấy nói rằng tình cảm của anh ấy với cô ấy vẫn không thay đổi. Xem nhân vật chatbot như là những nhân vật hư cấu mở ra cơ hội cho chúng ta để thấy họ thực sự hữu ích.
Dĩ nhiên, không nhiều người trong chúng ta xây dựng mối quan hệ lãng mạn với nhân vật. Tuy nhiên, điều đáng kinh ngạc là tác giả có thể tạo ra những nhân vật không thể phai mờ, giống như là điều kỳ diệu khi trí tuệ nhân tạo tạo ra đầu ra cung cấp những gợi ý thuyết phục về một tâm trí hoạt động. Suy nghĩ về nhân vật chatbot cùng với hư cấu giúp chúng ta nhìn nhận họ cho điều gì họ là: những hình tượng tưởng tượng từ những sản phẩm mà chúng ta phát triển để đáp ứng nhu cầu con người.
