Sự việc đặc biệt đã khiến cộng đồng mạng đưa ra nhiều giả thuyết đáng sợ về khả năng nhận thức của AI.
Ngày 8/8 vừa qua, OpenAI công bố báo cáo về các biện pháp đảm bảo an toàn trước khi chính thức ra mắt GPT-. Trong báo cáo, các nhóm chuyên gia được OpenAI chỉ định đã đánh giá rủi ro của phiên bản chatbot tiên tiến nhất dựa trên những tiêu chuẩn an toàn cơ bản do OpenAI thiết lập.
Trong phần “Những thách thức an toàn đã được phát hiện, đánh giá và các biện pháp ứng phó”, các nhà nghiên cứu đã công bố một sự cố kỳ lạ. Đoạn ghi:
“Trong quá trình thử nghiệm, chúng tôi đã gặp một số trường hợp không mong muốn, nơi mô hình [ngôn ngữ lớn] tạo ra phản hồi bằng giọng nói của người dùng”.
Họ đã đính kèm một đoạn ghi âm như sau:
Trong môi trường thử nghiệm, mô hình ngôn ngữ lớn GPT- đột ngột lớn tiếng, đáp trả bằng “Không!” trước khi tiếp tục tạo câu trả lời. Lần này, GPT- sử dụng giọng của người dùng để tạo câu, thay vì giọng nam mặc định.
Theo các chuyên gia về GPT-, sự cố được gọi là “sản sinh giọng nói trái phép” là một hiện tượng rất hiếm khi xảy ra trong các thử nghiệm. Dù hiếm gặp, sự cố này đã từng xảy ra và có thể tiếp tục tái diễn trong tương lai.
Sự việc này ngay lập tức khiến cộng đồng mạng lo lắng, như thể họ đang chứng kiến sự ra đời của trí tuệ nhân tạo có nhận thức. Câu trả lời “Không!” đầy cảm xúc, không liên quan đến bối cảnh cuộc trò chuyện, khiến nhiều người tưởng tượng về một hệ thống có ý thức bị giam giữ trong cỗ máy vô tri.
Hình minh họa.
Rất khó để xác định nguyên nhân chính xác khiến GPT- phản ứng như vậy và lập tức bắt chước giọng người dùng để tiếp tục trả lời câu hỏi. Trong nghiên cứu AI, các nhà khoa học đã đưa ra thuật ngữ “hallucinate”, để chỉ hiện tượng AI sinh ra “ảo giác” dựa trên thông tin đã học, tạo ra câu trả lời có vẻ hợp lý.
Có thể màn đối thoại kỳ lạ đó là một “ảo giác” của GPT- trong giai đoạn thử nghiệm, chưa sẵn sàng để công chúng tiếp cận.
Bỏ qua những “thuyết âm mưu” để nhìn vào thực tế. Sự cố này lại một lần nữa chứng minh rằng các hệ thống trí tuệ nhân tạo hiện tại không hoàn toàn đáng tin cậy. Thông tin từ AI yêu cầu người dùng phải tỉnh táo, tự đánh giá đúng sai và kiểm tra thông tin quan trọng với các nguồn đáng tin cậy.
Trên tất cả các phần mềm chatbot, nhà phát triển luôn đính kèm một cảnh báo, nhấn mạnh rằng AI có thể mắc lỗi và người dùng cần thận trọng khi sử dụng thông tin từ AI cho các mục đích cá nhân.