Đối với Một Số Người Tự Kỷ, ChatGPT Là Một Dây Nối

Giống như nhiều người tự kỷ, Madi Young, một tư vấn ở Seattle, đã học cách thực hiện các hành vi xã hội và ngôn ngữ cơ thể mà người không tự kỷ mong đợi. Nhưng việc che đậy, như người ta thường gọi, là công việc khó khăn và có thể dẫn đến hiểu lầm.
Vì vậy, Young rất vui khi gần đây họ đã tìm thấy một đối tác trò chuyện mà họ cảm thấy gần giống hơn với cách họ nói: ChatGPT. “Nó không nhận diện sai với ngôn ngữ cơ thể của tôi—chỉ nhận lời nói của tôi,” nói Young, người sử dụng chatbot cho các cuộc trò chuyện điều trị và như một “bạn đồng tư duy” hoặc “bạn bè.”
Young cũng sử dụng chatbot để giúp họ trong công việc với những doanh nhân và người sáng tạo có tư duy khác nhau về thần kinh về chiến lược thương hiệu và kinh doanh. Điều đó bao gồm ChatGPT tạo ra các chiến lược giao tiếp có thể dịch tốt giữa người tự kỷ và người không tự kỷ, nói Young, người đã tổ chức một hội thảo để giúp các doanh nhân tự kỷ khác học cách sử dụng chatbot.
“Rất nhiều người tự kỷ đã trưởng thành với việc được nói rằng họ là người ngoài hành tinh, hoặc rằng họ nghe có vẻ như là robot, hoặc đơn giản là có điều gì đó không đúng với họ,” Young nói. Khi ChatGPT xuất hiện, họ “nhanh chóng nhận ra rằng nó nghe giống như cách tôi nói”—hợp lý và cụ thể.
Young không phải là người tự kỷ duy nhất sử dụng chatbot phổ biến như một phần của thói quen hàng ngày của họ. Đối với một số người, đó là nơi để trò chuyện về sở thích của họ khi người khác trở nên chán chường, hoặc để làm việc trên kịch bản xã hội để giúp họ điều hướng trong xung đột. Nó cũng là một nguồn tài nguyên mới để nắm vững sự hỗ trợ. Không giống như một bác sĩ tâm lý hoặc nhân viên xã hội, bot luôn sẵn có và không tính theo giờ.
Hadley Johnston, sinh viên năm nhất tại Đại học Iowa State, đang điều hành động lực sống chung với bạn cùng phòng lần đầu tiên. Khi cô ta tranh cãi với một trong số họ, Johnston gặp khó khăn trong việc diễn đạt cảm xúc của mình. “Tôi hơi im lặng trong những tình huống như vậy,” cô ấy nói. Nhưng có AI ở đó, cô ấy có thể mô phỏng một cuộc trò chuyện và thử nghiệm cách diễn đạt bản thân. “Có ChatGPT, tôi không cần phải đến với bố mẹ tôi về điều này.” Đối với Johnston, đó là một sự to lớn. ChatGPT không chỉ là một nguồn kiến thức, mà còn là sự độc lập.
Tự kỷ ảnh hưởng đến mọi người theo nhiều cách khác nhau và mỗi người có thể có nhu cầu khác nhau. ChatGPT có thể không phù hợp với một số người hoặc thậm chí hầu hết, nhưng một đặc điểm chung của tự kỷ là giao tiếp xã hội có thể khó khăn hoặc rối bời.
Sử dụng chatbot để hỗ trợ giao tiếp có vẻ là không thông thường, nhưng nó nằm trong đường lối của một số ý tưởng đã được thiết lập trong công việc xã hội để giúp người ta trở nên độc lập hơn. “Chúng ta nói về việc truyền đạt quyền lực cho người và giúp họ trở nên hoàn toàn tự chủ và trải nghiệm thành công theo cách của họ,” nói Lauri Goldkind, một giáo sư tại Trường Đại học Fordham, Chương trình Sau đại học về Dịch vụ Xã hội tập trung vào sự kết hợp giữa công việc xã hội và công nghệ. Một công cụ tiện ích như một bot AI tạo ra thường có thể giúp thu hẹp khoảng cách do truy cập không đều đặn đến các dịch vụ sức khỏe tâm thần như tâm lý, Goldkind nói.
Nhưng ảnh hưởng thực sự của ChatGPT cho mục đích điều trị chủ yếu là chưa biết đến. Nó quá mới—MYTOUR đã liên lạc với bốn chuyên gia tâm lý lâm sàng và tư vấn để có ý kiến đóng góp. Mỗi người trong số họ từ chối bình luận, nói rằng họ vẫn chưa khám phá việc sử dụng ChatGPT như một công cụ điều trị hoặc gặp nó trong các buổi tư vấn của họ.
Sự linh hoạt của chatbot cũng đi kèm với một số vấn đề chưa được giải quyết. Nó có thể tạo ra những câu trả lời đầy đủ định kiến, không dự đoán được và thường là thông tin giả mạo, và nó được xây dựng một phần dựa trên thông tin cá nhân được thu thập mà không có sự cho phép, nâng cao những lo ngại về quyền riêng tư.
Goldkind khuyên rằng những người chọn ChatGPT nên quen với các điều khoản dịch vụ, hiểu cơ bản về cách nó hoạt động (và cách thông tin chia sẻ trong một cuộc trò chuyện có thể không giữ được tính riêng tư), và nhớ đến những hạn chế của nó, như xu hướng tạo ra thông tin giả mạo. Young nói họ đã nghĩ về việc bật bảo vệ quyền riêng tư dữ liệu cho ChatGPT, nhưng cũng nghĩ rằng quan điểm của họ là người tự kỷ, chuyển giới, và làm đơn phụ huynh có thể là dữ liệu hữu ích cho chatbot nói chung.
Như với nhiều người khác, người tự kỷ có thể tìm kiếm kiến thức và quyền lực trong cuộc trò chuyện với ChatGPT. Đối với một số người, những lợi ích lớn hơn nhược điểm.
Maxfield Sparrow, người tự kỷ và điều hành các nhóm hỗ trợ cho người tự kỷ và người chuyển giới, đã thấy ChatGPT hữu ích để phát triển nội dung mới. Nhiều người tự kỷ gặp khó khăn với những trò chơi làm quen truyền thống trong các buổi hỗ trợ nhóm, vì những trò chơi xã hội này thường được thiết kế chủ yếu cho người không tự kỷ, Sparrow nói. Vì vậy, họ khuyến khích chatbot đưa ra ví dụ hoạt động tốt hơn cho người tự kỷ. Sau một số đối thoại, chatbot đưa ra câu hỏi: “Nếu bạn là thời tiết, bạn sẽ là thời tiết nào?”
Sparrow nói rằng đó là cách mở đầu hoàn hảo cho nhóm—ngắn gọn và liên quan đến thế giới tự nhiên, mà Sparrow nói là một nhóm chuyển giới có thể kết nối. Chatbot cũng trở thành một nguồn an ủi khi Sparrow bị ốm, và để nhận lời khuyên khác, như cách tổ chức lịch trình buổi sáng của họ để trở nên hiệu quả hơn.
Terapia chatbot là một khái niệm tồn tại từ nhiều thập kỷ trước. Chatbot đầu tiên, Eliza, là một bot điều trị. Nó xuất hiện vào những năm 1960 từ Viện Trí tuệ Nhân tạo MIT và được mô phỏng theo lối điều trị Rogerian, trong đó một tư vấn làm lại những gì một khách hàng nói với họ, thường dưới dạng một câu hỏi. Chương trình không sử dụng AI như chúng ta biết ngày nay, nhưng thông qua lặp lại và phân tích mẫu, những câu trả lời theo kịch bản của nó mang lại ấn tượng cho người dùng rằng họ đang nói chuyện với một cái gì đó hiểu họ. Mặc dù được tạo ra với ý định chứng minh rằng máy tính không thể thay thế con người, nhưng Eliza đã cuốn hút một số “bệnh nhân” của mình, người tham gia vào cuộc trò chuyện mạnh mẽ và chi tiết với chương trình.
Gần đây, chatbot với các câu trả lời được định hình bởi AI, tương tự như Siri của Apple, đã trở nên rộng rãi. Trong số những cái phổ biến nhất là một chatbot được thiết kế để đóng vai trò của một bác sĩ tâm thần thực tế. Woebot dựa trên các thực hành tâm lý học hành vi, và đã trở nên phổ biến hơn trong thời kỳ đại dịch khi có nhiều người hơn bao giờ hết tìm kiếm các dịch vụ sức khỏe tâm thần.
Nhưng vì những ứng dụng đó có phạm vi hẹp và cung cấp những câu trả lời theo kịch bản, cuộc trò chuyện phong phú của ChatGPT có thể mang lại ấn tượng hiệu quả hơn đối với những người đang cố gắng giải quyết các vấn đề xã hội phức tạp.
Margaret Mitchell, nhà khoa học đạo đức chính tại startup Hugging Face, mà phát triển mô hình AI mã nguồn mở, gợi ý rằng những người đối mặt với vấn đề phức tạp hơn hoặc cảm xúc cực độ nên hạn chế việc sử dụng chatbot. “Nó có thể dẫn đến các hướng thảo luận làm phiền toái hoặc kích thích tư duy tiêu cực,” cô nói. “Việc chúng ta không có đầy đủ kiểm soát về những gì hệ thống này có thể nói là một vấn đề lớn.”
Trong năm nay, một người đàn ông ở Bỉ đã tự tử sau vài tuần cuộc trò chuyện căng thẳng với một bot dựa trên GPT-J, một mô hình AI mã nguồn mở do tổ chức phi lợi nhuận EleutherAI phát triển. Các công cụ tìm kiếm và nhiều dịch vụ trực tuyến khác—bao gồm cả Woebot—đều chuyển hướng người dùng đến đường dây nóng hoặc nguồn hỗ trợ khác nếu họ có vẻ đặc biệt có nguy cơ tự tử hoặc hành vi bạo lực. ChatGPT chỉ dẫn người nói chuyện tìm kiếm sự hỗ trợ con người nếu các tin nhắn của họ có vẻ lo lắng, nhưng không hướng dẫn đến một đường dây nóng khẩn cấp trong các bài kiểm tra mà MYTOUR thực hiện.
Andrea Vallone, quản lý chính sách sản phẩm tại OpenAI, nói rằng công ty đã cố gắng làm cho ChatGPT phản ứng một cách thích hợp đối với những người có thể mất lòng tin nhưng nó không được thiết kế để thay thế cho việc điều trị tâm lý. “Chúng tôi đã đào tạo hệ thống AI để cung cấp hướng dẫn tổng quát cho người dùng để tìm kiếm sự giúp đỡ,” cô nói. Chatbot không đề xuất một địa điểm cụ thể để tìm sự giúp đỡ để tránh đưa người ta đến các nguồn lực không có sẵn trong khu vực của họ. “Chúng tôi khuyến khích người dùng tìm kiếm sự hỗ trợ từ các chuyên gia,” Vallone nói.
Mitchell tin rằng những tiến bộ gần đây trong lĩnh vực AI sáng tạo sẽ dẫn đến sự xuất hiện của chatbot được điều chỉnh cho việc điều trị có khả năng hơn và dựa trên các bộ dữ liệu từ những người có nhu cầu cụ thể, bao gồm cả tự kỷ. Hiện nay, ChatGPT vẫn có thể đóng một vai trò quan trọng trong việc tự biểu đạt cho mọi người, đặc biệt là những người không luôn có người khác để trò chuyện với họ hiểu phong cách của họ.
Sparrow nói rằng họ cũng đã sử dụng ChatGPT để thảo luận với suy nghĩ của mình một cách chi tiết. Nhưng Sparrow mới đây đã bắt đầu hẹn hò với một người khác, và dành ít thời gian với ChatGPT hơn. Mặc dù có những lợi ích, một chatbot không thể thay thế cho mối quan hệ con người. “Một số điều đó đã giảm bớt vì tôi có một con người thực sự,” họ nói. “Có một khía cạnh của mối quan hệ con người mà nó không thể thay thế.”
Nếu bạn hoặc ai đó bạn biết cần sự giúp đỡ, hãy gọi 1-800-273-8255 để được hỗ trợ miễn phí, 24/7 từ National Suicide Prevention Lifeline. Bạn cũng có thể gửi tin nhắn HOME đến 741-741 cho Crisis Text Line. Ở ngoài Hoa Kỳ, truy cập Hiệp hội Quốc tế về Phòng ngừa Tự tử để biết về các trung tâm khẩn cấp trên khắp thế giới.
