Khám phá những mối đe dọa mà trí tuệ nhân tạo mang lại cho người dùng
Tháng 5 năm 2024, các công ty công nghệ hàng đầu thế giới đã cùng nhau giới thiệu các phiên bản trí tuệ nhân tạo mới như OpenAI với GPT-4o, Google với Gemini 1.5 Pro... có nhiều tính năng 'siêu thông minh' để cải thiện trải nghiệm người dùng. Tuy nhiên, việc sử dụng công nghệ này trong các kịch bản lừa đảo trực tuyến đang diễn ra ngày càng nhiều.
Nguy cơ đang gia tăng
Phát biểu tại một hội thảo gần đây, Thứ trưởng Bộ Thông tin và Truyền thông Phạm Đức Long đã nêu rõ tình trạng tấn công mạng ngày càng tinh vi và phức tạp. Đặc biệt, với sự hỗ trợ của trí tuệ nhân tạo, nguy cơ mà người dùng phải đối mặt cũng tăng lên. 'Công nghệ AI được tội phạm mạng sử dụng để tạo ra các phần mềm độc hại mới, các cuộc tấn công lừa đảo mới, tinh vi...' - Thứ trưởng Phạm Đức Long cảnh báo.
Theo báo cáo của Cục An toàn thông tin - Bộ Thông tin và Truyền thông, rủi ro liên quan đến an ninh mạng và trí tuệ nhân tạo đã gây thiệt hại hơn 1 triệu tỉ USD cho toàn thế giới, trong đó riêng Việt Nam là 8.000 - 10.000 tỉ đồng. Một trong những phổ biến nhất là việc sử dụng trí tuệ nhân tạo để giả mạo giọng nói và khuôn mặt nhằm mục đích lừa đảo. Dự báo đến năm 2025 sẽ có khoảng 3.000 cuộc tấn công/giây, 12 mã độc/giây và 70 lỗ hổng, điểm yếu mới/ngày.
Theo ông Nguyễn Hữu Giáp, Giám đốc BShield - công ty chuyên hỗ trợ bảo mật cho các ứng dụng, việc tạo ra hình ảnh và giọng nói giả mạo không còn là điều khó khăn với sự tiến bộ của trí tuệ nhân tạo. Kẻ gian có thể dễ dàng thu thập dữ liệu người dùng từ thông tin công khai mà họ đăng trên mạng xã hội hoặc qua các chiêu thức như phỏng vấn tuyển dụng online, gọi điện thoại dưới danh nghĩa 'cơ quan chức năng'. Trong một mô phỏng được BShield thực hiện, từ khuôn mặt có sẵn qua một cuộc gọi video, kẻ gian có thể đưa chúng vào giấy CCCD, ghép vào thân hình một người cử động để lừa công cụ eKYC và được hệ thống nhận định là người thật.

Từ góc nhìn của người dùng, ông Nguyễn Thành Trung, chuyên viên công nghệ thông tin tại TP HCM, lo ngại về khả năng của chatGPT trong việc tạo ra email lừa đảo giống hệt email thật từ các ngân hàng hay tổ chức uy tín. Những email này có thể chứa phần mềm độc hại, khiến người dùng bị mất dữ liệu hoặc tài sản nếu nhấp vào. 'Công nghệ AI ngày càng tiến bộ, có thể tạo ra video giả mạo khuôn mặt và giọng nói giống thật đến 95%, với cử động thay đổi theo thời gian thực, gây khó khăn cho việc phát hiện' - ông Trung nói.
Khẩn trương hoàn thiện cơ sở pháp lý
Để giảm thiểu rủi ro lừa đảo công nghệ cao, chuyên gia bảo mật Phạm Đình Thắng khuyến cáo người dùng cần cập nhật kiến thức về AI thường xuyên và không nhấp vào các liên kết không rõ nguồn gốc. Doanh nghiệp cần dành ngân sách để đảm bảo an toàn dữ liệu và vận hành hệ thống. Nhân viên cần được đào tạo sâu hơn để nhận diện các lỗ hổng trong hệ thống và phòng ngừa các cuộc tấn công trên mạng.
Ông Tạ Công Sơn, Trưởng Phòng Phát triển AI - Dự án Chống lừa đảo, cho biết AI đã và đang tiến sâu vào cuộc sống và hoạt động của con người và doanh nghiệp nhờ tính năng thông minh của nó. Tuy nhiên, công nghệ AI cũng mở ra cơ hội cho các đối tượng xấu lợi dụng để lừa đảo. 'Kẻ lừa đảo liên tục thay đổi cách thức tấn công, người dùng cần cập nhật thông tin thường xuyên để phòng tránh' - ông Sơn khuyến nghị.
Theo các chuyên gia, việc nâng cấp mới đây của các mô hình GPT-4o, Gemini 1.5 Pro... đã chứng tỏ sự thông minh của AI là không có giới hạn. Do đó, ngoài việc khuyến khích doanh nghiệp phát triển công cụ và giải pháp chống lừa đảo AI, cơ quan quản lý cần khẩn trương hoàn thiện cơ sở pháp lý về AI để đón đầu xu thế.
Thượng tá Nguyễn Anh Tuấn, Phó Giám đốc Trung tâm Dữ liệu quốc gia về dân số, cho rằng cần sớm ban hành các quy định về đạo đức và trách nhiệm của nhà cung cấp dịch vụ AI trong quá trình phát triển, sản xuất, và sử dụng AI. Đồng thời, cần có tiêu chuẩn kỹ thuật cụ thể đối với các hệ thống AI. 'Cần nghiên cứu và ứng dụng công nghệ AI để chống lại rủi ro từ AI. Bởi vì AI được tạo ra bởi con người, là sản phẩm của tri thức, nên có thể ngăn cản sự phát triển của nó bằng chính AI' - thượng tá Tuấn lưu ý.
Thách thức về an ninh mạng
Thượng tá Nguyễn Anh Tuấn nhận thấy rằng trí tuệ nhân tạo đang đặt ra những thách thức lớn về an ninh mạng. Các phần mềm độc hại được hỗ trợ bởi trí tuệ nhân tạo có thể được cài đặt vào các tập tin tài liệu, khi người dùng tải lên tập tin đó thì mã độc sẽ xâm nhập vào hệ thống. Ngoài ra, từ các công nghệ đặc biệt của trí tuệ nhân tạo, hacker có thể mô phỏng hệ thống và tấn công vào các lỗ hổng bảo mật. Trí tuệ nhân tạo còn có khả năng tạo ra nhiều ứng dụng giả mạo hình ảnh, tên của các ứng dụng, trang web của Bộ Công an để người dân tải xuống, cài đặt và cung cấp các thông tin như số CCCD, mật khẩu đăng nhập. 'Trí tuệ nhân tạo cũng có thể tự phát triển các phần mềm, mã độc kết hợp giữa nhiều dòng mã độc khác nhau, có cơ chế tránh bảo mật tinh vi hơn và tự động thay đổi các mã nguồn linh hoạt' - thượng tá Nguyễn Anh Tuấn khuyến cáo.
