
Sự đa tài và cũng đáng sợ của ChatGPT - chatbot AI thông minh nhất thế giới hiện nay, đến từ việc nó giúp một hacker không có nhiều kiến thức lập trình có thể tạo ra mã độc.
Xây dựng dựa trên mô hình ngôn ngữ GPT-3.5 của OpenAI - công ty nghiên cứu phát triển phần mềm có trụ sở tại San Francisco, ChatGPT là chatbot AI có kiến thức sâu rộng trên nhiều lĩnh vực và có khả năng giao tiếp, tương tác với người dùng rất ấn tượng.
Chỉ cần truy cập trang web của ChatGPT, người dùng có thể đặt không giới hạn câu hỏi và nhận được nhiều phản hồi hữu ích từ chatbot này. ChatGPT còn có khả năng viết mã lập trình hoặc sửa lỗi code ở các ngôn ngữ phổ biến, hoặc viết các bài luận nếu được yêu cầu.
Tuy nhiên, sức mạnh và sự đa tài của ChatGPT cũng đồng nghĩa với nhiều rủi ro về cách nó được sử dụng cho các mục đích tiêu cực.
Cụ thể, từ khi OpenAI phát hành ChatGPT vào cuối tháng 11, nhiều chuyên gia an ninh mạng đã dự đoán rằng việc giới tội phạm có thể sử dụng chatbot AI để viết mã độc hoặc thực hiện các hành vi không tốt chỉ là vấn đề thời gian. Và chỉ sau vài tuần, những dự đoán này đã thành hiện thực.
Theo báo cáo của các nhà nghiên cứu tại công ty bảo mật Check Point, đã có ít nhất 3 trường hợp hacker mũ đen chia sẻ trên các diễn đàn ngầm về cách họ tận dụng ChatGPT cho các mục đích tiêu cực.

Trong một diễn đàn chuyên về tội phạm mạng, một hacker thảo luận với các thành viên khác về việc anh ta đang thử nghiệm ChatGPT. Hacker này muốn biết xem chatbot AI này có thể tạo ra mã độc và thực hiện các kỹ thuật tấn công mạng đã biết hay không.

Trong một bài viết, hacker này đã chia sẻ mã nguồn của một công cụ đánh cắp thông tin, được tạo ra bằng ChatGPT sử dụng ngôn ngữ Python.
Công cụ này có khả năng tìm kiếm, sao chép và xâm nhập vào 12 loại file phổ biến như tài liệu Office, PDF và hình ảnh trên máy tính bị nhiễm mã độc.
Hacker này cũng tiết lộ đã sử dụng ChatGPT để viết code bằng ngôn ngữ Java, với chức năng âm thầm tải một phần mềm điều khiển server từ xa và chạy nó một cách bí mật trên máy bị nhiễm mã độc.
Trong một bài viết khác, một hacker với biệt danh USDoD đã chia sẻ một công cụ được tạo ra bằng ChatGPT sử dụng Python, có chức năng mã hóa và giải mã dữ liệu bằng thuật toán mã hóa Blowfish và Twofish.
Các chuyên gia bảo mật tại Checkpoint phát hiện ra rằng, mặc dù công cụ này có thể được sử dụng cho mục đích tốt, nhưng có thể dễ dàng bị chỉnh sửa để tự động chạy trên hệ thống mà không cần sự can thiệp của người dùng – điều này cho thấy tiềm năng của nó có thể phát triển thành một loại mã độc tống tiền (Ransomware).
Một điểm rất đáng chú ý: Khác với hacker đã được đề cập ở trên, người có biệt danh USDoD dường như có kỹ năng lập trình ít hơn nhiều. Thực tế, công cụ mà USDoD tạo ra với sự hỗ trợ của ChatGPT cũng là đoạn code Python đầu tiên mà hacker này viết, theo những lời thừa nhận của USDoD.
Trong trường hợp thứ ba, các nhà nghiên cứu tại Checkpoint phát hiện một tên tội phạm mạng đang thảo luận về việc sử dụng ChatGPT để tạo ra một chợ giao dịch tự động trên Dark Web, nơi có thể mua bán tài khoản ngân hàng và dữ liệu thẻ thanh toán bị đánh cắp, phần mềm độc hại, ma túy, đạn dược và nhiều loại hàng hóa bất hợp pháp khác.
'Để minh họa cách sử dụng ChatGPT cho mục đích này, hacker này đã tiết lộ một đoạn mã sử dụng API của bên thứ ba để cập nhật giá của một số đồng tiền điện tử như Monero, Bitcoin và Ethereum. Điều này là một phần của hệ thống thanh toán của chợ giao dịch trên Dark Web,' các chuyên gia bảo mật khẳng định.

Mối lo ngại về việc một số cá nhân hoặc tổ chức có thể lạm dụng ChatGPT để phục vụ mục đích tiêu cực đã lan rộng kể từ khi OpenAI miễn phí công cụ AI này vào tháng 11.
Nhiều chuyên gia bảo mật khẳng định, ChatGPT đã làm giảm đáng kể ngưỡng kỹ năng cần có để viết mã độc.
Sergey Shykevich, chuyên gia bảo mật tại Check Point, khẳng định với ChatGPT, hacker không cần kinh nghiệm về lập trình để viết mã độc. Lý do khá đơn giản, chatbot được coi là ‘thông minh nhất thế giới’ này sẽ tự động hoàn thành mọi việc.

'Bạn chỉ cần yêu cầu viết một phần mềm độc hại — hoặc bất kỳ công cụ nào khác - với các chức năng cần thiết. ChatGTP sẽ tạo ra một công cụ phù hợp với yêu cầu.”
Vì vậy, 'mối quan tâm ngắn hạn chắc chắn đến từ việc ChatGPT đang hỗ trợ cho tội phạm mạng với trình độ thấp cơ hội phát triển phần mềm độc hại,' Shykevich nói.
'Trong tương lai, tôi tin rằng các hacker có trình độ cao cũng sẽ tận dụng ChatGPT để nâng cao hiệu quả hoạt động của họ, hoặc để bổ sung kiến thức của mình”.
Brad Hong, giám đốc chăm sóc khách hàng tại Horizon3ai - một công ty bảo mật dành cho các doanh nghiệp, cũng đồng ý với quan điểm này.
Từ góc nhìn của tội phạm mạng, việc các đoạn mã được tạo ra bởi trí tuệ nhân tạo cho phép các hacker dễ dàng bỏ qua sự kỳ cựu. Bây giờ hacker không cần phải thành thạo nhiều ngôn ngữ lập trình, khi AI đã trở thành nguồn tri thức khổng lồ.
Nói một cách khác, thay vì phải tìm kiếm thông tin trên các diễn đàn như Stack Overflow, GitHub, mọi thứ đều dễ dàng hơn khi AI có thể tạo ra mã độc theo yêu cầu của tội phạm mạng, ông Brad Hong giải thích.
Thực tế, trước khi giới hacker 'mũ đen' sử dụng ChatGPT để viết mã độc, nhiều trong số họ đã biết cách tận dụng chatbot AI này trong các hoạt động lừa đảo.
Ví dụ, các chuyên gia bảo mật tại Checkpoint đã thử tạo ra một email lừa đảo với nội dung rất thuyết phục. Họ chỉ cần yêu cầu ChatGPT tạo ra một email từ một đơn vị dịch vụ lưu trữ web, thậm chí không có thực.

Các chuyên gia bảo mật cũng mô tả cách họ yêu cầu ChatGPT viết code trong ngôn ngữ VBScript, có thể nhúng vào một file Excel. Nếu ai đó mở file này, một tệp .exe sẽ được tải xuống mà không có sự nhận biết từ người dùng.
Thông qua những ví dụ này, các chuyên gia bảo mật đánh giá rằng đây là cách mà tội phạm mạng có thể lợi dụng mô hình trí tuệ nhân tạo như ChatGPT để tạo ra một 'chuỗi lây nhiễm toàn diện', từ lừa đảo qua email, cho đến việc tạo cửa hậu trong máy tính người dùng để tiến hành xâm nhập mã độc.

Trên thực tế, cả OpenAI và các nhà phát triển công nghệ AI khác đều nhận ra nguy cơ, rằng AI có thể trở thành một con dao hai lưỡi nếu bị lạm dụng bởi những đối tượng xấu.
Ví dụ, các bộ lọc và cơ chế kiểm soát, luôn được cải thiện không ngừng, đã được tích hợp vào các công cụ AI để ngăn chặn việc lạm dụng công nghệ bởi những kẻ có ý đồ xấu.
Cũng cần phải nhấn mạnh rằng, hiện nay, các công cụ AI vẫn còn khá 'ngây thơ' và chưa thực sự tin cậy, điều này có thể làm cho giới hacker mũ đen cảm thấy một chút do dự khi sử dụng trí tuệ nhân tạo. Tuy nhiên, khi các công cụ này ngày càng hoàn thiện, nguy cơ AI bị lạm dụng vẫn là một mối lo ngại dài hạn, theo quan điểm của nhiều chuyên gia bảo mật.
Để làm cho việc lạm dụng công nghệ khó khăn hơn đối với giới tội phạm mạng, các nhà phát triển sẽ cần huấn luyện và cải tiến các công cụ AI của họ để có thể nhận biết các yêu cầu được nghi ngờ là với mục đích xấu, theo chuyên gia Shykevich. Theo ông, một phương pháp khác có thể được xem xét, đó là áp dụng yêu cầu xác thực và ủy quyền cho việc sử dụng công cụ OpenAI - tương tự như những gì các tổ chức tài chính trực tuyến hoặc dịch vụ thanh toán trực tuyến đang thực hiện.
