VTV.vn - Trong một báo cáo gần đây, OpenAI lo lắng rằng người dùng có thể trở nên gắn bó với , dẫn đến nguy cơ 'lệ thuộc' vào giọng nói giống như con người của công cụ này.
CNN trích dẫn một báo cáo mới được phát hành bởi OpenAI về đánh giá an toàn của công cụ .
Theo báo cáo, giọng nói của hiện nay nghe rất tự nhiên. Giọng nói này phản hồi theo thời gian thực, có thể điều chỉnh khi bị ngắt lời, và tạo ra những âm thanh mà con người thường phát ra trong các cuộc trò chuyện như tiếng cười hoặc âm thanh 'hmm'. Nó cũng có khả năng đánh giá cảm xúc của người nói dựa trên giọng điệu.
Chỉ vài phút sau khi OpenAI giới thiệu tính năng giọng nói này tại một sự kiện đầu năm nay, đã có so sánh với tình huống trong bộ phim 'Her' phát hành năm 2013. Nhân vật chính trong phim đã phải lòng một giọng nói AI và trải qua nỗi đau khi 'cô ấy' (giọng nói AI) thừa nhận có mối quan hệ với nhiều người dùng khác.
Báo cáo chỉ ra rằng, OpenAI dường như lo ngại rằng câu chuyện hư cấu này đang trở thành hiện thực, khi thấy nhiều người dùng tương tác với bằng ngôn ngữ thể hiện sự kết nối với công cụ này.
Cuối cùng, báo cáo nêu rõ rằng 'người dùng có thể phát triển mối quan hệ xã hội với AI, giảm thiểu nhu cầu tương tác với con người thực. Điều này có thể mang lại lợi ích cho những người cô đơn nhưng cũng có thể ảnh hưởng tiêu cực đến các mối quan hệ lành mạnh.'
Báo cáo cũng chỉ ra rằng việc nhận thông tin từ một chatbot có giọng nói giống con người có thể khiến người dùng đặt niềm tin vào công cụ này nhiều hơn mức cần thiết. Điều này mang lại rủi ro lớn vì AI có thể mắc sai lầm.
Báo cáo nhấn mạnh một mối nguy lớn khác liên quan đến trí tuệ nhân tạo: các công ty công nghệ đang gấp rút triển khai các công cụ AI mà họ cho rằng có thể thay đổi cách con người sống, làm việc, giao tiếp và tìm kiếm thông tin.
CEO của , Sam Altman, cam kết phát triển AI 'một cách an toàn', nhưng nhiều chuyên gia công nghệ đang bày tỏ lo ngại về các công cụ như .
Tuy nhiên, thực tế là các Big Tech đang hành động trước khi ai thực sự hiểu những gì sẽ xảy ra. Giống như nhiều tiến bộ công nghệ khác, các công ty thường hình dung cách thức sử dụng các công cụ của họ. Tuy nhiên, hình dung đó thường khác xa thực tế do sự đa dạng của người dùng và những hậu quả không mong muốn thường xảy ra.
Một số người đã hình thành 'mối quan hệ tình cảm' với các chatbot AI, điều này đã khiến các chuyên gia cảm thấy lo lắng.
'Các công ty cần có trách nhiệm lớn trong việc dẫn dắt câu chuyện một cách có đạo đức và có trách nhiệm. Hiện tại, tất cả vẫn đang ở giai đoạn thử nghiệm', Liesel Sharabi, giáo sư tại Đại học Tiểu bang Arizona chuyên nghiên cứu về công nghệ và giao tiếp giữa con người, chia sẻ với kênh CNN.
'Tôi lo ngại về những người đang phát triển mối liên hệ thực sự sâu sắc với một công nghệ có thể không tồn tại lâu dài và liên tục phát triển', bà nói thêm.
OpenAI cho biết rằng cách người dùng tương tác với theo thời gian có thể tác động đến những gì được xem là chuẩn mực trong các mối quan hệ xã hội.
'Các mô hình của chúng tôi luôn tôn trọng, cho phép người dùng có thể ngắt lời và 'cầm mic' bất cứ lúc nào. Mặc dù điều này được kỳ vọng ở một AI, nhưng lại trái với quy tắc trong các cuộc giao tiếp giữa con người', công ty đã nêu trong báo cáo.
Hiện tại, OpenAI cam kết phát triển AI 'một cách an toàn' và có kế hoạch tiếp tục nghiên cứu về sự 'phụ thuộc về cảm xúc' của người dùng vào các công cụ của họ.