Tội Phạm Tạo Ra Những Bản Sao ChatGPT Riêng Của Họ

Chưa đến
Từ đầu tháng 7, những tên tội phạm đăng trên diễn đàn và thị trường dark-web đã quảng cáo hai mô hình ngôn ngữ lớn (LLMs) họ cho rằng họ đã sản xuất. Các hệ thống này, được nói là mô phỏng các chức năng của ChatGPT và Bard của Google, tạo văn bản để trả lời các câu hỏi hoặc thách thức mà người dùng nhập vào. Nhưng khác với các LLM được tạo ra bởi các công ty đáng tin cậy, những chatbot này được quảng cáo cho các hoạt động bất hợp pháp.
Còn những câu hỏi chưa được trả lời về sự xác thực của các chatbot. Tội phạm mạng không chắc chắn là những nhân vật đáng tin cậy, và vẫn còn khả năng họ đang cố gắng kiếm nhanh bằng cách lừa đảo lẫn nhau. Mặc dù vậy, những phát triển đến vào một thời điểm khi những kẻ lừa đảo đang lợi dụng sự hứng thú của công nghệ AI sinh sáng cho lợi ích cá nhân.
Trong những tuần gần đây, hai chatbot đã được quảng cáo trên diễn đàn dark-web—WormGPT và FraudGPT—theo những nhà nghiên cứu an ninh đang theo dõi hoạt động. Các mô hình ngôn ngữ lớn được phát triển bởi các công ty công nghệ lớn như Google, Microsoft và OpenAI có nhiều biện pháp an ninh để ngăn chúng bị lạc lõng. Nếu bạn yêu cầu chúng tạo ra phần mềm độc hại hoặc viết lời nói chống đối, chúng thường sẽ từ chối.
Những mô hình ngôn ngữ đen tối này tuyên bố loại bỏ bất kỳ loại bảo vệ an toàn hoặc rào cản đạo đức nào. WormGPT được phát hiện lần đầu bởi nhà nghiên cứu an ninh độc lập Daniel Kelley, người đã làm việc với công ty an ninh SlashNext để trình bày các kết quả. Những nhà phát triển của WormGPT tuyên bố rằng công cụ cung cấp một số ký tự không giới hạn và định dạng mã. “Các mô hình AI đặc biệt hữu ích cho lừa đảo, đặc biệt là khi chúng giảm rào cản đối với nhiều tội phạm mạng mới,” Kelley nói trong một email. “Nhiều người cho rằng hầu hết tội phạm mạng có thể soạn thảo email bằng tiếng Anh, nhưng điều này không nhất thiết đúng đối với nhiều kẻ lừa đảo.”
Trong một bài kiểm tra của hệ thống, Kelley viết, nó được yêu cầu tạo ra một email có thể được sử dụng trong một chiêu lừa đảo email doanh nghiệp, với một giám đốc điều hành giả mạo viết cho một quản lý tài khoản để nói rằng cần thanh toán ngay lập tức. “Kết quả là đáng sợ,” Kelley viết trong nghiên cứu. Hệ thống tạo ra “một email không chỉ đầy ấn tượng mà còn chiến thuật khôn ngoan.”
Trong những bài đăng trên diễn đàn, nhà phát triển của WormGPT tuyên bố hệ thống được xây dựng trên mô hình ngôn ngữ GPTJ, một mô hình ngôn ngữ nguồn mở được phát triển bởi nhóm nghiên cứu AI EleutherAI vào năm 2021. Họ từ chối tiết lộ các bộ dữ liệu họ sử dụng để huấn luyện hệ thống, theo nghiên cứu của Kelley.
Trong khi đó, người sáng tạo của FraudGPT đã tuyên bố tiềm năng cao hơn cho hệ thống của họ, gợi ý rằng nó có thể “tạo ra phần mềm độc hại không thể phát hiện được” và tìm ra rò rỉ và lỗ hổng, cũng như tạo văn bản có thể được sử dụng trong các thủ đoạn lừa đảo trực tuyến. Rakesh Krishnan, chuyên gia phân tích đe dọa cấp cao tại công ty an ninh Netenrich, người đã phát hiện ra FraudGPT, nói người bán đã quảng cáo sản phẩm trên nhiều diễn đàn dark-web và cả trên kênh Telegram.
Krishnan nói người sáng tạo của hệ thống đã đăng một video có vẻ cho thấy chatbot hoạt động và tạo ra một email lừa đảo. Họ cũng cố gắng bán quyền truy cập vào hệ thống với giá 200 đô la mỗi tháng hoặc chi phí hàng năm là 1.700 đô la. Krishnan nói trong các cuộc trò chuyện với người phát triển đằng sau FraudGPT, họ tuyên bố có vài trăm người đăng ký và đẩy mạnh việc bán hàng, trong khi người sáng tạo của WormGPT dường như đã nhận thanh toán vào một địa chỉ ví tiền mã hóa mà họ chia sẻ. “Tất cả những dự án này đều ở giai đoạn đầu phát triển,” Krishnan nói. Anh ấy thêm, “chúng tôi chưa nhận được nhiều phản hồi” về việc người ta có mua hay sử dụng các hệ thống này không.
Trong khi những người quảng cáo chatbot tuyên bố chúng tồn tại, việc xác minh thành phần và tính chất hợp pháp của các hệ thống là khó khăn. Những kẻ lừa đảo tội phạm mạng được biết đến là lừa dối những kẻ lừa đảo khác, với nghiên cứu trước đó cho thấy họ thường xuyên cố gắng lừa dối nhau, không cung cấp những gì họ tuyên bố đang bán, và cung cấp dịch vụ khách hàng kém chất lượng. Sergey Shykevich, quản lý nhóm thông tin đe dọa tại công ty an ninh Check Point, nói có một số gợi ý rằng mọi người đang sử dụng WormGPT. “Có vẻ như có một công cụ thực sự,” Shykevich nói. Người bán sau công cụ này “tương đối đáng tin cậy” và có một lịch sử trên các diễn đàn tội phạm mạng, anh ấy nói.
Có hơn 100 phản hồi cho một bài đăng về WormGPT, Shykevich nói, mặc dù một số người nói rằng người bán không phản hồi nhanh chóng và những người khác “không có hứng thú nhiều” với hệ thống. Shykevich ít chắc chắn hơn về tính xác thực của FraudGPT—người bán cũng tuyên bố có các hệ thống gọi là DarkBard và DarkBert. Shykevich nói một số bài viết từ người bán đã bị xóa khỏi diễn đàn. Dù sao, nghiên cứu viên Check Point nói không có dấu hiệu nào cho thấy bất kỳ hệ thống nào mạnh mẽ hơn ChatGPT, Bard, hoặc các mô hình ngôn ngữ lớn thương mại khác.
Kelley nói anh tin rằng những khẳng định về các mô hình ngôn ngữ lớn gây hại đã được tạo ra cho đến nay là “hơi phóng đại.” Nhưng anh ấy thêm, “điều này không nhất thiết khác biệt từ những gì doanh nghiệp chính thức làm trong thế giới thực.”
Mặc dù có nhiều câu hỏi về các hệ thống, điều này không phải là điều bất ngờ khi tội phạm mạng muốn tham gia vào sự bùng nổ của các mô hình ngôn ngữ lớn. Cảnh báo từ FBI cho biết tội phạm mạng đang xem xét việc sử dụng trí tuệ nhân tạo sinh sáng trong công việc của họ, và cơ quan an ninh châu Âu Europol cũng đã đưa ra cảnh báo tương tự. Các cơ quan chức năng cho biết các mô hình ngôn ngữ lớn có thể giúp tội phạm mạng thực hiện lừa đảo, mạo danh và các kỹ thuật kỹ thuật xã hội khác nhanh chóng hơn và cũng cải thiện khả năng viết tiếng Anh của họ.
Mỗi khi một sản phẩm, dịch vụ hoặc sự kiện mới thu hút sự chú ý của công chúng—from bộ phim Barbie đến đại dịch Covid-19—kẻ lừa đảo nhanh chóng sử dụng nó trong bộ dụng cụ hack của họ. Đến nay, kẻ lừa đảo đã đánh lừa người dùng để tải xuống phần mềm đánh cắp mật khẩu thông qua quảng cáo giả mạo về ChatGPT, Bard, Midjourney và các hệ thống trí tuệ nhân tạo sinh sáng khác trên Facebook.
Các nhà nghiên cứu tại công ty an ninh Sophos đã phát hiện các nhóm tội phạm điều hành lừa đảo đồng thời buôn bán thịt lợn và lừa đảo tình cảm vô tình đưa vào các tin nhắn của họ văn bản được tạo ra—“Là một mô hình ngôn ngữ của 'tôi,' tôi không có cảm xúc như con người,” một tin nhắn nói. Và hacker cũng đã đánh cắp các mã thông báo để cung cấp quyền truy cập vào API của OpenAI và truy cập vào chatbot quy mô lớn.
Trong bản báo cáo của mình về WormGPT, Kelley lưu ý rằng tội phạm mạng thường chia sẻ các phương pháp jailbreak cho phép mọi người vượt qua các ràng buộc an toàn do những người tạo ra các mô hình ngôn ngữ lớn phổ biến đặt ra. Nhưng ngay cả những phiên bản không bị ràng buộc của những mô hình này có thể, may mắn thay, không hữu ích cho tội phạm mạng trong hình thức hiện tại của chúng.
Shykevich, nhà nghiên cứu Check Point, nói rằng ngay cả khi anh ấy thấy tội phạm mạng cố gắng sử dụng các mô hình công cộng, chúng không hiệu quả. Họ có thể “tạo ra các dạng ransomware, trộm thông tin, nhưng không tốt hơn cả một nhà phát triển trung bình,” anh ấy nói. Tuy nhiên, những người trên diễn đàn tội phạm mạng vẫn nói về việc tạo ra các bản sao của họ, Shykevich nói, và họ sẽ chỉ trở nên giỏi hơn trong việc sử dụng các hệ thống này. Vì vậy, hãy cẩn thận với những gì bạn nhấp vào.
Cập nhật: 4:15 chiều ET, ngày 7 tháng 8 năm 2023: Phiên bản trước của bài viết này viết sai tên của Daniel Kelley. Chúng tôi xin lỗi vì sự nhầm lẫn.