Tình Trạng Mối Quan Hệ với ChatGPT Không Nên Phức Tạp

Công nghệ đằng sau ChatGPT đã tồn tại trong vài năm mà không thu hút nhiều sự chú ý. Chính việc thêm giao diện chatbot mới khiến nó trở nên phổ biến. Nói cách khác, không phải sự phát triển trong trí tuệ nhân tạo mà là sự thay đổi trong cách AI tương tác với con người đã thu hút sự chú ý của thế giới.

Khá nhanh chóng, mọi người đã bắt đầu nghĩ về ChatGPT như một thực thể xã hội tự động. Điều này không ngạc nhiên. Ngay từ năm 1996, Byron Reeves và Clifford Nass nhìn vào máy tính cá nhân của thời đại họ và phát hiện ra rằng “việc đặt công nghệ trung gian và cuộc sống thực là không hiếm cũng như không không hợp lý. Nó rất phổ biến, dễ tạo ra, không phụ thuộc vào trang thiết bị truyền thông cao cấp, và suy nghĩ sẽ không khiến nó biến mất.” Nói cách khác, kỳ vọng cơ bản của mọi người từ công nghệ là nó sẽ hành xử và tương tác như một con người, ngay cả khi họ biết rõ rằng đó chỉ là “một chiếc máy tính.” Sherry Turkle, một giáo sư tại MIT nghiên cứu về AI và robot từ những năm 1990, nhấn mạnh cùng một điểm và khẳng định rằng các hình thức giao tiếp giống như cuộc sống, như ngôn ngữ cơ thể và gợi ý bằng lời nói, “kích hoạt những nút bấm của chúng ta theo lý thuyết Darwin”— chúng có khả năng khiến chúng ta trải nghiệm công nghệ như một phần của xã hội, ngay cả khi chúng ta hiểu biết lý trí rằng đó không phải là như vậy.
Nếu những học giả này nhìn thấy tiềm năng xã hội—và rủi ro—trong các giao diện máy tính cũ từ nhiều thập kỷ trước, thì hợp lý khi cho rằng ChatGPT cũng có thể có một hiệu ứng tương tự, và có thể mạnh mẽ hơn. Nó sử dụng ngôn ngữ người thứ nhất, giữ nguyên bối cảnh và cung cấp câu trả lời một cách hấp dẫn, tự tin và thân mật. Việc triển khai ChatGPT của Bing thậm chí còn sử dụng biểu cảm cảm xúc. Điều này là một bước tiến lớn trên bậc thang xã hội so với đầu ra kỹ thuật hơn mà bạn có thể nhận được khi tìm kiếm, ví dụ như Google.
Các nhà phê bình của ChatGPT đã tập trung vào những hậu quả mà đầu ra của nó có thể gây ra, như thông tin sai lệch và nội dung gây căm ghét. Nhưng cũng có những rủi ro trong việc lựa chọn phong cách trò chuyện xã hội và trong việc cố gắng sao chép con người càng gần càng tốt của trí tuệ nhân tạo.
Những Rủi Ro của Giao Diện Xã Hội
Phóng viên của New York Times, Kevin Roose, đã bị cuốn vào một cuộc trò chuyện kéo dài hai giờ với chatbot của Bing kết thúc bằng tuyên bố tình yêu từ chatbot, mặc dù Roose đã lặp đi lặp lại yêu cầu dừng lại. Loại chiếm đoạt cảm xúc như vậy sẽ gây hại hơn cho nhóm dễ tổn thương, như thanh thiếu niên hoặc những người đã trải qua quấy rối. Điều này có thể làm kinh hãi người dùng, và việc sử dụng thuật ngữ và tín hiệu cảm xúc của con người, như biểu cảm cảm xúc, cũng là một hình thức lừa dối cảm xúc. Một mô hình ngôn ngữ như ChatGPT không có cảm xúc. Nó không cười hoặc khóc. Thực tế, nó thậm chí còn không hiểu ý nghĩa của những hành động như vậy.
Sự lừa dối cảm xúc trong các tác nhân trí tuệ nhân tạo không chỉ gây vấn đề về đạo đức; thiết kế của họ, giống con người, cũng có thể làm cho những tác nhân như vậy trở nên thuyết phục hơn. Công nghệ hành xử giống như con người có thể thuyết phục người dùng hành động, ngay cả khi yêu cầu là không hợp lý, được thực hiện bởi một tác nhân trí tuệ nhân tạo không hoàn hảo và trong các tình huống khẩn cấp. Sự thuyết phục của họ nguy hiểm vì các công ty có thể sử dụng chúng một cách không mong muốn hoặc thậm chí không được người dùng biết đến, từ thuyết phục họ mua sản phẩm đến ảnh hưởng đến quan điểm chính trị của họ.
Kết quả là, một số người đã lùi lại. Ví dụ, các nhà nghiên cứu thiết kế robot đã quảng cáo một phương pháp không giống con người như một cách để giảm thấp kỳ vọng của người dùng đối với tương tác xã hội. Họ đề xuất các thiết kế thay thế không sao chép cách thức tương tác của con người, do đó đặt kỳ vọng phù hợp hơn từ một công nghệ.
Định Nghĩa Quy Tắc
Một số rủi ro của tương tác xã hội với chatbot có thể được giải quyết bằng cách thiết kế vai trò xã hội và ranh giới rõ ràng cho chúng. Con người lựa chọn và chuyển đổi vai trò liên tục. Cùng một người có thể di chuyển qua lại giữa vai trò làm cha mẹ, nhân viên, hoặc anh chị em. Dựa trên việc chuyển đổi từ một vai trò sang vai trò khác, ngữ cảnh và ranh giới tương tác dự kiến cũng thay đổi. Bạn sẽ không sử dụng cùng một ngôn ngữ khi nói chuyện với con của bạn như khi trò chuyện với đồng nghiệp.
Ngược lại, ChatGPT tồn tại trong một không gian xã hội trống rỗng. Mặc dù có một số giới hạn nó cố gắng không vượt qua, nó không có một vai trò xã hội rõ ràng hoặc chuyên môn. Nó cũng không có mục tiêu cụ thể hoặc ý định được định sẵn. Có lẽ đây là một lựa chọn có ý thức từ OpenAI, nhà tạo ra ChatGPT, để quảng cáo nhiều mục đích sử dụng hoặc một thực thể có thể làm tất cả. Có thể hơn hết, đó chỉ là một thiếu hiểu biết về phạm vi xã hội của các tác nhân trò chuyện. Bất kể lý do là gì, sự mở rộng này mở ra cơ hội cho các tương tác cực đoan và rủi ro. Cuộc trò chuyện có thể đi bất kỳ hướng nào, và trí tuệ nhân tạo có thể đảm nhận bất kỳ vai trò xã hội nào, từ trợ lý email hiệu quả đến người yêu quá khích.
Nghiên cứu của riêng tôi đã chỉ ra sự quan trọng của vai trò xã hội và ranh giới rõ ràng đối với trí tuệ nhân tạo xã hội. Ví dụ, trong một nghiên cứu cùng với đồng nghiệp Samantha Reig, chúng tôi phát hiện ra rằng các tác nhân trí tuệ nhân tạo cố gắng đảm nhận nhiều vai trò hoàn toàn khác nhau (ví dụ như cung cấp dịch vụ làm đẹp cho người dùng và sau đó đưa ra lời khuyên sức khỏe) đã làm giảm lòng tin của người dùng vào hệ thống và khiến họ hoài nghi về tính đáng tin cậy của nó.
Ngược lại, thông qua việc nghiên cứu các gia đình có thanh thiếu niên sử dụng trí tuệ nhân tạo trò chuyện, chúng tôi phát hiện rằng tác nhân trí tuệ nhân tạo cần phải truyền đạt rõ ràng về liên kết của mình—tác nhân trả lời cho ai, người thanh thiếu niên hay phụ huynh?—để có được sự tin tưởng của người dùng và hữu ích cho họ. Khi các gia đình thiếu thông tin đó, họ gặp khó khăn trong việc đoán trước cách hệ thống sẽ hành động và ít có khả năng cung cấp thông tin cá nhân cho tác nhân trí tuệ nhân tạo. Ví dụ, thanh thiếu niên lo lắng rằng các tác nhân sẽ chia sẻ thông tin nhiều hơn với phụ huynh của họ, điều này làm họ e ngại sử dụng nó hơn. Định nghĩa rõ vai trò của tác nhân trí tuệ nhân tạo là liên quan đến người thanh thiếu niên, không phải phụ huynh, sẽ làm cho công nghệ trở nên dễ đoán và đáng tin cậy hơn.
Gán một vai trò xã hội cho một tác nhân trí tuệ nhân tạo là một cách hữu ích để suy nghĩ về việc thiết kế tương tác với chatbot, và điều này sẽ giúp vượt qua một số vấn đề này. Nếu một đứa trẻ có một người hướng dẫn trí tuệ nhân tạo, mô hình ngôn ngữ của nó nên phù hợp với vai trò này. Ranh giới cụ thể có thể được xác định bởi người giáo viên, người sẽ điều chỉnh chúng đến các mục tiêu giáo dục và các chuẩn mực lớp học. Ví dụ, người hướng dẫn có thể được phép đặt câu hỏi hướng dẫn nhưng không được phép cung cấp câu trả lời; nó có thể cung cấp sự trợ giúp với ngữ pháp không chính xác nhưng không viết toàn bộ văn bản. Trọng tâm của cuộc trò chuyện sẽ tập trung vào tư liệu giáo dục và tránh sử dụng ngôn ngữ thô tục, chính trị và tình dục.
Nhưng nếu tác nhân đóng vai trò người bạn tâm sự với đứa trẻ, chúng ta có thể mong đợi những ranh giới khác nhau. Các ràng buộc có thể được xác định rộng rãi hơn, đặt nhiều trách nhiệm hơn cho đứa trẻ. Có thể sẽ có nhiều không gian cho các tương tác và phản hồi đùa cợt hơn. Tuy nhiên, một số ranh giới nên được đặt với ngôn ngữ và nội dung phù hợp với độ tuổi, bảo vệ sức khỏe về mặt tâm lý và thể chất của đứa trẻ. Ngữ cảnh xã hội cũng không giới hạn chỉ trong tương tác một người một tác nhân.
Một khi chúng ta nhận thức được rằng các tác nhân cần có vai trò và ranh giới xã hội, chúng ta cần chấp nhận rằng trí tuệ nhân tạo đi vào một cấu trúc xã hội phức tạp trong đó nhiều bên liên quan có thể có các giá trị khác nhau và thậm chí là xung đột. Trong ví dụ về người hướng dẫn AI, mục tiêu của giáo viên có thể khác biệt so với mục tiêu của đứa trẻ, phụ huynh của họ, hoặc hiệu trưởng của trường. Giáo viên có thể muốn học sinh gặp khó khăn một cách sản xuất, trong khi phụ huynh có thể ưu tiên hiệu suất cao. Hiệu trưởng, bên khác, có thể quan tâm hơn đến kết quả trung bình của lớp và chi phí của người hướng dẫn. Loại suy nghĩ tập trung vào ràng buộc này không chỉ là về việc hạn chế hệ thống, mà còn là về việc hướng dẫn người dùng. Việc biết vai trò xã hội và ngữ cảnh của một trí tuệ nhân tạo có thể định hình kỳ vọng của người dùng và ảnh hưởng đến các loại câu hỏi và yêu cầu được đặt cho AI ban đầu. Do đó, việc đặt ranh giới cho các kỳ vọng cũng có thể giúp tạo điều kiện cho các tương tác an toàn và sản xuất hơn.
Một Con Đường Tiến Lên
Làm thế nào các công ty có thể bắt đầu áp dụng các ràng buộc xã hội trong thiết kế của các tác nhân trí tuệ nhân tạo? Một ví dụ nhỏ là tính năng mà OpenAI giới thiệu khi ra mắt GPT4. Bản demo mới có một trường nhập “Hệ thống” trong giao diện của nó, cho người dùng một lựa chọn để thêm hướng dẫn cấp cao và ngữ cảnh vào cuộc trò chuyện—hoặc như bài viết này gợi ý, một vai trò xã hội và ranh giới tương tác. Điều này là một bước khởi đầu tốt nhưng không đủ, vì OpenAI không minh bạch về cách thông tin đó thay đổi phản hồi của trí tuệ nhân tạo. Ngoài ra, trường Hệ thống không nhất thiết quan tâm đến các khía cạnh xã hội của vai trò của trí tuệ nhân tạo trong tương tác với người dùng.
Một ngữ cảnh xã hội được xác định rõ ràng có thể giúp cấu trúc hóa các ranh giới xã hội mà chúng ta quan tâm trong xã hội. Nó có thể giúp các công ty xác định rõ ràng mục đích thiết kế trí tuệ nhân tạo của họ và tránh những vai trò mà chúng ta xem là không phù hợp hoặc có hại để AI thực hiện. Nó cũng có thể cho phép nhà nghiên cứu và kiểm toán theo dõi cách công nghệ trò chuyện đang được sử dụng, và các rủi ro mà nó gây ra, bao gồm cả những rủi ro mà chúng ta có thể chưa nhận thức được. Thiếu các ràng buộc này và với việc tạo ra một trí tuệ nhân tạo biết mọi điều mà không có một vai trò xã hội cụ thể, tác động của nó có thể nhanh chóng trở nên không kiểm soát.
