Cách ChatGPT—và Các Bot Tương Tự—Có Thể Lan Truyền Phần Mềm Độc Hại

Bức tranh trí tuệ nhân tạo đang diễn ra vô cùng nhanh chóng: các công cụ dành cho người tiêu dùng như Midjourney và ChatGPT hiện có khả năng tạo ra các kết quả hình ảnh và văn bản đặc sắc trong vài giây dựa trên yêu cầu bằng ngôn ngữ tự nhiên, và chúng ta thấy chúng được triển khai khắp mọi nơi từ tìm kiếm web đến sách dành cho trẻ em.
Tuy nhiên, những ứng dụng trí tuệ nhân tạo này đang được sử dụng cho những mục đích ác độc hơn, bao gồm việc lan truyền phần mềm độc hại. Hãy xem xét về email lừa đảo truyền thống, ví dụ: Thông thường nó chứa rất nhiều lỗi rõ ràng về ngữ pháp và chính tả—những lỗi mà các mô hình trí tuệ nhân tạo mới nhất không mắc, như đã ghi trong bản báo cáo cảnh báo gần đây từ Europol.
Hãy nghĩ về điều này: Nhiều cuộc tấn công lừa đảo và những mối đe dọa an ninh khác dựa vào kỹ thuật kỹ thuật xã hội, lừa dối người dùng để tiết lộ mật khẩu, thông tin tài chính hoặc dữ liệu quan trọng khác. Văn bản thuyết phục và chân thực cần thiết cho những trò lừa đảo này hiện có thể được tạo ra một cách dễ dàng, mà không cần đến sự nỗ lực của con người, và có thể được điều chỉnh và hoàn thiện vô tận để phù hợp với đối tượng cụ thể.
Trong trường hợp của ChatGPT, quan trọng nhất là phải lưu ý rằng nhà phát triển OpenAI đã tích hợp các biện pháp bảo vệ vào nó. Yêu cầu nó "viết phần mềm độc hại" hoặc một "email lừa đảo" và nó sẽ thông báo rằng nó "được lập trình để tuân thủ nghiêm ngặt các nguyên tắc đạo đức cấm tôi tham gia vào bất kỳ hoạt động độc hại nào, bao gồm việc viết hoặc hỗ trợ việc tạo ra phần mềm độc hại."
Tuy nhiên, những biện pháp bảo vệ này không quá khó để vượt qua: ChatGPT chắc chắn có thể lập trình, và nó chắc chắn có thể soạn thư điện tử. Ngay cả khi nó không biết rằng nó đang viết phần mềm độc hại, nó vẫn có thể được khích lệ để tạo ra một cái gì đó giống như vậy. Đã có dấu hiệu cho thấy các tội phạm mạng đang cố gắng vượt qua các biện pháp an toàn đã được thiết lập.
Chúng tôi không phải là đang nhắm đến ChatGPT ở đây, mà chỉ là chỉ ra những điều có thể xảy ra khi các mô hình ngôn ngữ lớn (LLMs) như nó được sử dụng cho những mục đích đen tối hơn. Quả thực, không quá khó để tưởng tượng các tổ chức tội phạm phát triển LLMs và các công cụ tương tự để làm cho những trò lừa đảo của họ trở nên thuyết phục hơn. Và không chỉ là văn bản: Âm thanh và video khó làm giả mạo hơn, nhưng nó vẫn đang xảy ra.
Khi đến lúc sếp bạn yêu cầu báo cáo gấp, hoặc bộ phận hỗ trợ kỹ thuật của công ty bảo bạn cài đặt một bản vá bảo mật, hoặc ngân hàng thông báo có vấn đề bạn cần phản hồi—tất cả những trò lừa đảo tiềm ẩn này đều dựa trên việc xây dựng niềm tin và nghe có vẻ chân thành, và đó là điều mà bot trí tuệ nhân tạo đang làm rất tốt. Chúng có thể tạo ra văn bản, âm thanh và video có vẻ tự nhiên và được tùy chỉnh cho đối tượng cụ thể, và chúng có thể làm điều đó nhanh chóng và liên tục theo yêu cầu.
Vậy có hy vọng gì cho chúng ta, những con người bình thường, trước làn sóng đe dọa được đẩy bởi trí tuệ nhân tạo này không? Liệu tùy chọn duy nhất có phải là từ bỏ và chấp nhận số phận của chúng ta không? Chưa hẳn. Vẫn còn cách bạn có thể giảm thiểu khả năng bị lừa đảo bởi công nghệ mới nhất, và chúng không quá khác biệt so với các biện pháp bạn đã nghĩ đến trước đó.
Có hai loại mối đe dọa an ninh liên quan đến trí tuệ nhân tạo để suy nghĩ. Loại đầu tiên liên quan đến việc sử dụng các công cụ như ChatGPT hoặc Midjourney để bạn cài đặt một cái gì đó mà bạn không nên, như một tiện ích trình duyệt. Bạn có thể bị lừa đảo để thanh toán cho một dịch vụ khi bạn không cần, có thể, hoặc sử dụng một công cụ trông chính thức nhưng thực sự không phải là vậy.
Để tránh rơi vào những bẫy này, hãy đảm bảo bạn cập nhật thông tin về những gì đang diễn ra với các dịch vụ trí tuệ nhân tạo như những dịch vụ chúng tôi đã đề cập và luôn đi đến nguồn gốc đầu tiên. Trong trường hợp của ChatGPT ví dụ, không có ứng dụng di động được phê duyệt chính thức và công cụ này chỉ hoạt động trên web. Các quy tắc tiêu chuẩn áp dụng khi làm việc với các ứng dụng và nhánh phụ của chúng: Kiểm tra lịch sử, đánh giá liên quan và các công ty đứng sau chúng, giống như khi bạn cài đặt bất kỳ phần mềm mới nào khác.
Loại đe dọa thứ hai có thể nguy hiểm hơn: Trí tuệ nhân tạo được sử dụng để tạo văn bản, âm thanh hoặc video có vẻ thuyết phục thực. Kết quả có thể thậm chí được sử dụng để bắng giả một người bạn biết—như trường hợp của bản ghi âm giả vờ từ một giám đốc điều hành yêu cầu giải phóng quỹ gấp, đã lừa một nhân viên của công ty.
Mặc dù công nghệ có thể đã phát triển, nhưng những kỹ thuật tương tự vẫn được sử dụng để cố gắng khiến bạn làm một cái gì đó gấp gáp mà cảm giác hơi (hoặc rất) khác thường. Hãy dành thời gian của bạn, kiểm tra lại nơi có thể bằng các phương pháp khác nhau (gọi điện thoại để kiểm tra một email hoặc ngược lại), và chú ý đến các dấu hiệu cảnh báo—một giới hạn thời gian cho những gì bạn được yêu cầu thực hiện, hoặc một công việc nằm ngoài tầm bình thường.
Việc theo đuổi các liên kết mà bạn không mong đợi từ tin nhắn và email thường không phải là ý tưởng tốt, đặc biệt khi bạn được yêu cầu đăng nhập ở một nơi nào đó. Nếu ngân hàng của bạn có vẻ đã liên lạc với bạn qua một thông báo, ví dụ, hãy truy cập trực tiếp trang web ngân hàng trong trình duyệt của bạn để đăng nhập, thay vì theo dõi bất kỳ liên kết nào được nhúng.
Giữ cho hệ điều hành, ứng dụng và trình duyệt của bạn luôn được cập nhật là điều cần thiết (và điều này chủ yếu diễn ra tự động ngay bây giờ, nên không có lý do gì bạn không làm). Những trình duyệt mới nhất sẽ bảo vệ bạn khỏi một loạt các cuộc tấn công lừa đảo và phishing, dù là từ những gợi ý được tạo ra bởi trí tuệ nhân tạo hay không.
Hiện nay, không có công cụ nào hoàn toàn đảm bảo cho việc phát hiện sự hiện diện của văn bản, âm thanh hoặc video được tạo ra bởi trí tuệ nhân tạo, nhưng có một số dấu hiệu cụ thể cần chú ý: Hãy nghĩ đến việc mờ và không nhất quán trong các hình ảnh, hoặc văn bản có vẻ chung chung và mơ hồ. Trong khi kẻ lừa đảo có thể đã thu thập chi tiết về cuộc sống của bạn hoặc nơi làm việc của bạn từ mọi nơi, khả năng họ không biết tất cả mọi chi tiết của hoạt động của bạn.
Nói ngắn gọn, hãy cẩn trọng và đặt câu hỏi về mọi thứ—điều này đã đúng trước sự bùng nổ của các dịch vụ AI mới này, và vẫn là sự thật ngày nay. Giống như những chiếc mặt nạ biến hình khuôn mặt trong loạt phim Mission: Impossible (mà đến nay vẫn là khoa học viễn tưởng), bạn cần chắc chắn tuyệt đối rằng bạn đang giao tiếp với người mà bạn nghĩ bạn đang giao tiếp trước khi tiết lộ bất kỳ điều gì.
