Hôm thứ 4 vừa qua, các nhà nghiên cứu an ninh mạng đã cảnh báo rằng tội phạm công nghệ cao đã khám phá phương thức vượt qua rào cản của ChatGPT, dùng nó để cung cấp các dịch vụ vi phạm luật như tạo ra mã độc hoặc gửi email lừa đảo thông tin (phishing).Trên phiên bản thông thường, nền web của ChatGPT mà chúng ta đang sử dụng, chatbot này luôn có hàng rào ngăn chặn người dùng yêu cầu hoặc ép ChatGPT làm những việc được coi là “vi phạm pháp, không đạo đức và có hại.” Điều này cũng đúng với việc bắt ChatGPT viết các đoạn mã để tấn công vào một hệ thống máy tính, hoặc giả mạo email để “phish” thông tin nhạy cảm của người khác.Các chuyên gia bảo mật của Check Point Research tuyên bố rằng, kẻ tấn công không sử dụng phiên bản thương mại của ChatGPT, mà thay vào đó, họ tận dụng nền tảng lập trình ứng dụng của ChatGPT để vượt qua rào cản ngăn chặn nội dung vi phạm pháp luật. API của ChatGPT được OpenAI mở cửa cho các nhà phát triển phần mềm, cho phép họ tích hợp chatbot này vào phần mềm mà họ viết. Và kết quả, API này hoàn toàn không có bất kỳ rào cản nào để ngăn chặn nội dung độc hại.Dịch vụ này thậm chí còn được quảng cáo trên mạng internet:

Thậm chí có người còn đăng tải miễn phí các đoạn mã để vượt qua rào cản ngăn chặn nội dung phạm pháp của ChatGPT.Cuối năm ngoái, các chuyên gia bảo mật của Check Point đã bày tỏ lo ngại về việc ChatGPT bị lạm dụng để phục vụ mục đích xấu của các tội phạm công nghệ cao. Với khả năng của mô hình dữ liệu GPT, nguy cơ này đã trở nên rất thực tế, khi những nội dung được mô hình dữ liệu tạo ra có thể bị sử dụng vào mục đích xấu với tần suất đáng kể. Mặc dù luôn có các giải pháp để nhận diện nội dung độc hại và bất hợp pháp, nhưng đến lúc đó, một cuộc đua giữa các nhà nghiên cứu và tội phạm công nghệ cao sẽ bắt đầu, khi cả hai đều tìm cách vượt qua nhau.Theo ArsTechnica