Kẻ Lừa Đảo Sử Dụng ChatGPT để Phóng Ra Một Mạng Bot Crypto trên X

Dù ChatGPT có thể cách mạng hóa tìm kiếm web, tối ưu hóa công việc văn phòng và đổi mới trong giáo dục, nhưng chatbot nói suông này cũng đã tìm được công việc làm nhà đầu tư tiền điện tử trên mạng xã hội.
Nhóm nghiên cứu tại Đại học Indiana Bloomington đã phát hiện một mạng bot được cung cấp bởi ChatGPT hoạt động trên X—mạng xã hội trước đây được biết đến là Twitter—vào tháng 5 năm nay.
Mạng bot, mà nhóm nghiên cứu đặt tên là Fox8 do liên quan đến các trang web tiền điện tử mang một biến thể của cùng một tên, bao gồm 1.140 tài khoản. Có vẻ nhiều trong số chúng sử dụng ChatGPT để tạo nên các bài đăng trên mạng xã hội và để trả lời các bài đăng của nhau. Nội dung tự động tạo ra có vẻ được thiết kế để lôi kéo những người không ngờ vào việc nhấp vào các liên kết dẫn đến các trang web quảng cáo tiền điện tử.
Micah Musser, một nhà nghiên cứu đã nghiên cứu về tiềm năng của thông tin sai lệch do trí tuệ nhân tạo, cho biết botnet Fox8 có thể chỉ là phần nổi của tảng băng, bởi vì mô hình ngôn ngữ lớn và chatbot ngày càng trở nên phổ biến. 'Đây là trái cây dễ hái,' Musser nói. 'Rất có khả năng rằng đối với mỗi chiến dịch bạn tìm thấy, có nhiều chiến dịch khác đang thực hiện những điều phức tạp hơn.'
Botnet Fox8 có thể đã mở rộng, nhưng việc sử dụng của nó cho ChatGPT chắc chắn không phải là sáng tạo. Các nhà nghiên cứu đã phát hiện ra botnet này bằng cách tìm kiếm trên nền tảng với cụm từ tiêu biểu 'Là một mô hình ngôn ngữ trí tuệ nhân tạo ...', một phản ứng mà ChatGPT đôi khi sử dụng cho các đề xuất về các chủ đề nhạy cảm. Sau đó, họ phân tích thủ công các tài khoản để xác định những tài khoản có vẻ được vận hành bởi bot.
'Lý do duy nhất chúng tôi chú ý đến botnet cụ thể này là vì chúng quá cẩu thả,' nói Filippo Menczer, một giáo sư tại Đại học Indiana Bloomington thực hiện nghiên cứu cùng với Kai-Cheng Yang, một sinh viên sẽ gia nhập Đại học Northeastern như một nghiên cứu viên sau đại học trong năm học sắp tới.
Mặc dù có nhược điểm, botnet đã đăng nhiều thông điệp thuyết phục quảng cáo cho các trang web tiền điện tử. Sự dễ dàng rõ ràng khi trí tuệ nhân tạo của OpenAI được sử dụng cho chiêu lừa đảo có nghĩa là các chatbot tiên tiến khác có thể đang vận hành các botnet khác mà chưa được phát hiện. 'Bất kỳ tên tội phạm khá tốt nên không mắc sai lầm đó,' Menczer nói.
OpenAI không phản hồi lại yêu cầu ý kiến về botnet đến thời điểm đăng bài. Chính sách sử dụng cho các mô hình trí tuệ nhân tạo của họ cấm sử dụng chúng cho các chiêu lừa đảo hoặc thông tin sai lệch.
ChatGPT, cùng với các chatbot tiên tiến khác, sử dụng những gì được biết đến là các mô hình ngôn ngữ lớn để tạo văn bản phản ứng theo yêu cầu. Với đủ dữ liệu huấn luyện (nhiều phần lớn được thu thập từ nhiều nguồn trên web), đủ công suất máy tính và phản hồi từ người thử nghiệm, bot như ChatGPT có thể phản ứng một cách độc đáo đối với nhiều đầu vào. Đồng thời, chúng cũng có thể tỏ ra kỳ quặc, thể hiện độ chệch lệch xã hội và nói những điều không có thật.
Một botnet dựa trên ChatGPT được cấu hình đúng sẽ khó phát hiện, có khả năng đánh lừa người dùng và hiệu quả hơn trong việc làm giả mọi thuật toán được sử dụng để ưu tiên nội dung trên mạng xã hội.
'Nó đánh lừa cả nền tảng và người dùng,' Menczer nói về botnet hoạt động bằng ChatGPT. Và, nếu một thuật toán truyền thông xã hội phát hiện rằng một bài viết có nhiều sự tương tác — thậm chí nếu sự tương tác đó đến từ các tài khoản bot khác — nó sẽ hiển thị bài viết đó cho nhiều người hơn. 'Đó chính xác là lý do tại sao những con bot này đang hành xử theo cách họ làm,' Menczer nói. Và các chính phủ muốn thực hiện chiến dịch thông tin sai lệch rất có thể đã phát triển hoặc triển khai những công cụ như vậy, ông thêm.
Nhiều nghiên cứu viên từ lâu đã lo lắng về việc công nghệ đằng sau ChatGPT có thể tạo ra một rủi ro thông tin sai lệch, và OpenAI thậm chí đã trì hoãn việc phát hành một phiên bản tiền nhiệm của hệ thống vì những nỗi lo đó. Nhưng đến nay, có ít ví dụ rõ ràng về việc sử dụng không đúng quy mô của các mô hình ngôn ngữ lớn. Một số chiến dịch chính trị đã sử dụng trí tuệ nhân tạo, với các chính trị gia nổi tiếng chia sẻ video deepfake được thiết kế để làm mất uy tín đối thủ của họ.
William Wang, một giáo sư tại Đại học California, Santa Barbara, nói rằng có thể nghiên cứu về việc sử dụng tội phạm thực sự của ChatGPT là điều thú vị. 'Kết quả nghiên cứu của họ rất tuyệt vời,' ông nói về công việc của Fox8.
Wang tin rằng nhiều trang web rác hiện đang được tạo tự động, và ông nói rằng ngày càng khó cho con người nhận biết được nội dung này. Và, với trí tuệ nhân tạo ngày càng cải thiện, điều này chỉ sẽ trở nên khó khăn hơn. 'Tình hình khá tồi tệ,' ông nói.
Tháng 5, phòng thí nghiệm của Wang phát triển một kỹ thuật để tự động phân biệt văn bản do ChatGPT tạo ra từ văn bản viết bởi con người, nhưng ông nói rằng nó tốn kém để triển khai vì sử dụng API của OpenAI, và ông chú ý rằng trí tuệ nhân tạo cơ bản đang liên tục cải thiện. 'Đó là một vấn đề loài mèo và chuột,' Wang nói.
X có thể là một bãi thử nghiệm màu mỡ cho những công cụ như vậy. Menczer nói rằng bot độc hại dường như trở nên phổ biến hơn kể từ khi Elon Musk tiếp quản cái được biết đến là Twitter, mặc dù ông chủ tịch công nghệ đã hứa sẽ loại bỏ chúng. Và đã trở nên khó khăn hơn cho các nhà nghiên cứu nghiên cứu vấn đề này vì sự tăng giá đột ngột của giá sử dụng API.
Dường như có ai đó tại X đã đánh bại botnet Fox8 sau khi Menczer và Yang công bố bài báo của họ vào tháng 7. Nhóm của Menczer trước đây đã thông báo cho Twitter về các phát hiện mới trên nền tảng, nhưng họ không còn làm điều đó với X. 'Họ không phản hồi thực sự,' Menczer nói. 'Họ không có đội ngũ thực sự.'
