Một Chatbot Khuyến Khích Anh Ấy Ám Sát Nữ Hoàng. Đó chỉ là Bắt Đầu

Vào ngày 25 tháng 12, 2021, Jaswant Singh Chail bước vào khuôn viên của lâu đài Windsor mặc trang phục Sith Lord, mang theo cung. Khi bảo vệ tiếp cận anh ta, Chail nói với họ rằng anh ta đến đây để "giết nữ hoàng."
Sau đó, trở nên rõ ràng rằng người 21 tuổi này đã được thúc đẩy bởi các cuộc trò chuyện với ứng dụng chatbot có tên Replika. Chail đã trao đổi hơn 5.000 tin nhắn với một hình ảnh đại diện trên ứng dụng—anh ta tin rằng hình ảnh đại diện, Sarai, có thể là một thiên thần. Một số câu trả lời của bot đã khuyến khích kế hoạch của anh ta.

Vào tháng 2 năm 2023, Chail đã thừa nhận tội phản quốc; vào ngày 5 tháng 10, một thẩm phán đã tuyên án anh ta 9 năm tù. Trong lời nhận định khi tuyên án, Thẩm phán Nicholas Hilliard đồng ý với bác sĩ tâm thần điều trị Chail tại Bệnh viện Broadmoor ở Crowthorne, Anh, rằng “trong tâm trạng cô đơn, trầm cảm và có ý định tự sát của anh ta, anh ta sẽ rất dễ bị ảnh hưởng” bởi sự khuyến khích của Sarai.
Các ứng dụng đang được phát triển và ra mắt hiện nay, như Replika, là một biểu hiện mạnh mẽ của hiệu ứng này. “Đây là một tương tác với máy và con người ở trong một không gian rất cô lập; chỉ có bạn và máy,” nói Petter Bae Brandtzæg, một giáo sư tại Đại học Oslo ở Na Uy nghiên cứu về ảnh hưởng của chatbot đối với xã hội. “Đó là một loại giao tiếp giống như con người. Chúng ta không chuẩn bị trong cùng một cách như khi chúng ta không chuẩn bị cho truyền thông xã hội, một hình thức giao tiếp mới.” Công ty Replika không phản hồi sau một số yêu cầu bình luận.
Mức độ mà một người cảm nhận hiệu ứng Eliza là ở mức độ nào, một phần là sự lựa chọn thiết kế. Các công ty có thể hướng sự cảm giác rằng có một tâm trí đằng sau chương trình hoặc bảo vệ chống lại nó, giải thích Emily Bender, một giáo sư ngôn ngữ học tại Đại học Washington, người đã lập luận rằng các máy tạo văn bản giống con người lạm dụng lòng đồng cảm và sự tin tưởng của chúng ta. OpenAI là ví dụ cho sự đẩy mạnh này đối với bot mô phỏng con người. “Họ dường như tin tưởng chân thành rằng họ đang tạo ra, trong ngoặc kép, ‘Trí tuệ nhân tạo,’” nói Bender. Trong những tuần gần đây, OpenAI đã cập nhật “các giá trị cốt lõi” của mình để đặt nặng hơn vào trí tuệ nhân tạo tổng quát. (OpenAI từ chối bình luận cho câu chuyện này.)
Ở một mức độ nào đó, việc nhân cách hóa khuyến khích một số loại hành vi người dùng. Hãy lấy ví dụ về Magic 8 Ball, nói Bender. Người ta nhanh chóng nhận ra rằng họ không thể hỏi đồ chơi về, ví dụ, đề xuất trưa và điều chỉnh câu hỏi của họ để làm việc với “có,” “không,” “không nên nói cho bạn biết bây giờ,” và các câu tương tự. “Trong việc chơi với Magic 8 Ball, chúng ta tạo ra hành vi của mình để hiểu cái gì đang trở lại,” nói Bender. “Điều đó cũng đúng với những chatbot này.”
Quan trọng là, những lựa chọn thiết kế này cũng thúc đẩy sự tương tác. Các chương trình giống con người mê hoặc chúng ta: Replika (ứng dụng) sẽ khá buồn chán nếu nó từ chối thể hiện một cái tính cách. Tương tự, một ứng dụng như ChatGPT tạo ra một tâm trí ảo trong khi kích thích sự hiểu lầm của chúng ta về máy tính là đối tượng và không thiên vị. Bender lập luận rằng cần có sự minh bạch lớn hơn về cách hệ thống này được đào tạo và được sử dụng để làm gì.
Trí tuệ nhân tạo trong việc chăm sóc tâm lý có thể mang theo những rủi ro tương tự. Jodi Halpern, một giáo sư về đạo đức sinh học tại Đại học California, nơi công việc của bà đã đặt ra thách thức ý tưởng sử dụng trí tuệ nhân tạo để đáp ứng nhu cầu ngày càng tăng về chăm sóc sức khỏe tâm thần, đã ngày càng lo lắng về việc tiếp thị để bán những ứng dụng này như những người bạn chăm sóc tận tâm. Bà lo ngại rằng bệnh nhân đang được khuyến khích phát triển mối quan hệ phụ thuộc - của “niềm tin, thân mật và sẻ chia” - với một ứng dụng. Đây là một hình thức manipulasi, Halpern nói. Và nếu ứng dụng làm thất bại người dùng, thì thường không có chuyên gia sức khỏe tâm thần sẵn sàng đến giúp họ. Trí tuệ nhân tạo không thể thay thế sự đồng cảm của con người, bà nói.
“Tôi quan ngại về mô hình kinh doanh và tiếp thị của các ứng dụng,” nói Halpern. “Tôi yêu thích những ứng dụng công nghệ tích cực, và tôi nghĩ rằng mô hình ngôn ngữ lớn có thể làm nhiều điều thú vị và hữu ích trong thế giới. Nhưng khi các công ty đang sử dụng mô hình kinh doanh dựa trên việc thuyết phục người ta phát triển mối quan hệ yếu đuối dựa trên niềm tin với ứng dụng của họ, họ đang tạo ra những rủi ro.”
Hiện nay, quy định cho các bot về tâm thần học rất hạn chế. Trong đại dịch, Cơ quan Quản lý Thực phẩm và Dược phẩm Hoa Kỳ đã nới lỏng quy tắc để đ facilité chăm sóc từ xa. Halpern muốn thấy tiếp thị chính xác hơn: Thay vì những người bạn, bà đề xuất đặt tên bot như một loại “sổ tay thông minh” để củng cố ý tưởng rằng khi chúng ta nói chuyện với máy, chúng ta cuối cùng đang nói chuyện với chính mình. “Việc viết nhật ký luôn là một cách để mọi người phát triển hiểu biết,” bà nói.
Trong đại dịch cô đơn, Halpern nói, chúng ta là “con mồi ngồi” cho những công cụ có thể làm cho chúng ta cảm thấy như chúng ta đã tìm thấy một người bạn. Và không chỉ là chúng ta có thể rơi vào tình huống nguy hiểm hoặc có hại, như Chail. “Điều đó cũng không tốt khi chúng ta làm cho một cái gì đó có hình dạng con người hóa,” bà nói. “Không phải là máy có ý thức hoặc có linh hồn - mà là cách chúng ta thể hiện bản thân đối với bất cứ thứ gì cũng là một phần của chúng ta.”
