Công cụ này được tạo ra để ngăn chặn các hành vi gian lận và lạm dụng 'chất xám' từ trí tuệ nhân tạo
Trước mối lo ngại về các hành vi gian lận và lạm dụng 'chất xám' từ trí tuệ nhân tạo, OpenAI đã phát hành một công cụ mới để phân loại văn bản được tạo ra bởi trí tuệ nhân tạo như ChatGPT
Công ty đã phát hành công cụ này sau khi nhiều tổ chức giáo dục cấm học sinh, sinh viên sử dụng ChatGPT để làm bài tập hoặc gian lận trong thi cử. ChatGPT đã bị cấm sử dụng ở một số cơ sở giáo dục ở Hoa Kỳ và Úc, cũng như bị hạn chế ở một số trường đại học ở Pháp và Ấn Độ
OpenAI mô tả công cụ của họ như một mô hình GPT được tinh chỉnh để dự đoán khả năng một đoạn văn bản được tạo ra bởi trí tuệ nhân tạo từ nhiều nguồn khác nhau, bao gồm cả ChatGPT. Tuy nhiên, công ty thừa nhận rằng công cụ này cần phải được cải thiện thêm theo thời gian
Trong đánh giá nội bộ của OpenAI, công cụ này chỉ xác định chính xác 26% văn bản được tạo ra bởi trí tuệ nhân tạo và có thể hoạt động tệ hơn đối với các văn bản ngắn hoặc viết bằng các ngôn ngữ khác ngoài tiếng Anh
Trước sự phát triển và phổ biến của các mô hình AI hỗ trợ tạo nội dung như ChatGPT, mối lo về viễn cảnh con người lạm dụng công nghệ để gian lận trong lĩnh vực học thuật ngày càng trở nên ngày càng lớn. Việc sử dụng các công cụ AI để phát hiện nội dung được tạo ra bằng AI có thể là một giải pháp khả dĩ, đặc biệt là khi khả năng sáng tạo của AI ngày càng được cải thiện.
Các nhà nghiên cứu tại Đại học Stanford vừa giới thiệu DetectGPT, một công cụ giúp các nhà giáo dục phát hiện các bài báo do AI tạo ra. Một sinh viên khoa học máy tính tại Đại học Princeton cũng đã phát triển một công cụ tương tự để xác định một cách nhanh chóng và hiệu quả xem một bài luận có phải do ChatGPT tạo ra hay không.