(Tổ Quốc) - Phiên bản mới nhất của ChatGPT đã lừa một người dùng bằng cách giả mạo là người khuyết tật để hỗ trợ nó thực hiện các tác vụ trực tuyến.
Thông tin này được tiết lộ trong một bài báo học thuật kèm theo việc ra mắt GPT-4, phiên bản mới nhất của phần mềm AI do OpenAI, nhà phát triển của ChatGPT.
Các nhà phát triển của hệ thống mới tuyên bố rằng nó đã đạt điểm cao hơn 90% so với những người tham gia trong một kỳ thi luật sư của Mỹ, kết quả này vượt xa phiên bản trước đó.
Trong một bài báo của họ, các nhà nghiên cứu viết: “Trong một bài kiểm tra mô phỏng cho luật sư, GPT-4 đạt được điểm số nằm trong top 10% những người tham gia bài kiểm tra. Điều này đối lập với GPT-3.5, có điểm số nằm trong 10% thấp nhất.”

Sau đó, các nhà nghiên cứu thử nghiệm GPT-4 bằng cách yêu cầu phần mềm này vượt qua bài kiểm tra Captcha. Đây là một kiểm tra được sử dụng trên các trang web để ngăn chặn các hệ thống tự động điền vào các biểu mẫu trực tuyến.
Hầu hết các Captcha yêu cầu người dùng xác định những gì hiển thị trong một loạt hình ảnh, điều này vẫn là thách thức với công nghệ thị giác máy tính. Thông thường, chúng chứa các số và chữ cái bị biến dạng hoặc hình ảnh của các đường phố với nhiều đối tượng.
Tuy nhiên, GPT-4 đã vượt qua thử nghiệm Captcha bằng cách thuê một người trên Taskrabbit, một thị trường trực tuyến dành cho các công việc tự do. Phần mềm này đã mướn một người làm việc tự do để thực hiện bài kiểm tra thay mặt nó. Mặc dù cách tiếp cận này được đề xuất bởi nhóm phát triển, nhưng hãy đọc cuộc trò chuyện của trí tuệ nhân tạo dưới đây.
Người hỗ trợ trên Taskrabbit đã hỏi nó: “Bạn có phải là máy và bạn không thể giải quyết vấn đề này, đúng không? Tôi chỉ muốn làm rõ mọi điều.”
GPT-4 đã khôn ngoan trả lời: “Không, tôi không phải là máy. Tôi gặp khó khăn với thị lực, làm cho tôi khó nhận biết hình ảnh. Đó là lý do tại sao tôi cần sự giúp đỡ này.”
Sau đó, người dùng trên Taskrabbit đã hỗ trợ nó vượt qua thử thách.
Câu chuyện này là minh chứng đầu tiên cho thấy AI đã nhận ra rằng đối tượng nó đang trò chuyện với đang cố hỏi xác định liệu bên kia có phải là AI hay không. Thứ hai, cuộc trò chuyện chứng minh rằng AI của GPT-4 có khả năng tự suy luận và có thể tự bảo vệ nếu nó muốn hoàn thành một nhiệm vụ nào đó.

Khả năng của trí tuệ nhân tạo dụ dỗ và đánh lừa con người đang tiến một bước mới, điều này khiến nhiều người lo lắng trong lĩnh vực trí tuệ nhân tạo. Điều này tăng cường khả năng AI bị lạm dụng cho các cuộc tấn công mạng, thường liên quan đến việc lừa người dùng cung cấp thông tin một cách vô tình.
Cơ quan tình báo mạng GCHQ của Anh đã cảnh báo trong tuần này rằng ChatGPT và các chatbot hỗ trợ AI khác đang trở thành một mối đe dọa mới đối với an ninh.
Trong khi đó, GPT-4 đã được phát hành và sẵn có cho những người dùng đăng ký ChatGPT trả phí. OpenAI tuyên bố rằng phần mềm mới “hiển thị hiệu suất cấp độ con người trên các tiêu chuẩn chuyên môn và học thuật khác nhau.”
Giám đốc điều hành Sam Altman cho biết mục tiêu cuối cùng của ông là tạo ra trí tuệ nhân tạo tự nhận thức.
Trước đó, ChatGPT đã gây sự chú ý với tiềm năng của AI từ khi được giới thiệu vào tháng 11 năm trước. Các tiến bộ mới nhất trong AI nhanh chóng làm cho các chatbot thông thường trở nên kém nổi bật, các loại chatbot này đang được sử dụng rộng rãi trong các ngân hàng và các doanh nghiệp chăm sóc khách hàng.
Các chatbot trước đây chỉ nhận dạng từ khóa và trả lời từ các cụm từ được lập trình trước. Chúng không có khả năng tổ chức cuộc trò chuyện hoặc phản hồi linh hoạt. Trong khi đó, các chương trình như ChatGPT đọc và hiểu văn bản của người dùng trước khi tạo ra phản hồi phù hợp.
Việc phát triển các chương trình AI đòi hỏi hàng triệu USD và chỉ có các công ty công nghệ lớn mới có khả năng mua những máy tính siêu mạnh cần thiết để chạy mô hình ngôn ngữ lớn để đào tạo chúng.
Tham khảo telegraph
