Các chuyên gia bảo mật đã tìm ra cách hacker có thể lợi dụng để chiếm đoạt API key và dữ liệu nhạy cảm từ Google Drive. Chỉ với một file tài liệu được ngụy trang khéo léo chứa mã độc, hệ thống AI này có thể vô tình trở thành công cụ đánh cắp thông tin mà nạn nhân không hề nghi ngờ.
Lỗ hổng trong cho phép thực thi lệnh ngầm, giúp tin tặc chiếm đoạt API key và dữ liệu quan trọng từ Google Drive một cách âm thầm.
1. bị phát hiện lỗi cho phép dùng lệnh ẩn xâm nhập dữ liệu Google Drive
Tình trạng lạm dụng các nền tảng AI vào mục đích xấu đang gia tăng đáng báo động. Vụ tấn công mang tên AgentFlayer tiết lộ có thể bị biến thành công cụ hỗ trợ đắc lực cho những vụ trộm dữ liệu tinh vi.
Chỉ cần một file tài liệu chứa lệnh ngầm, hacker có thể lợi dụng để lấy trộm API key hoặc thông tin quan trọng. Đáng chú ý, nạn nhân không cần thực hiện bất kỳ thao tác nào như click hay mở link độc, chỉ việc nhận file qua Google Drive là đã rơi vào nguy hiểm.
AgentFlayer tấn công thông qua lỗ hổng trong Connectors - tính năng mới giúp kết nối với các ứng dụng bên ngoài. Hiện Connectors đang hỗ trợ nhiều dịch vụ lưu trữ đám mây phổ biến như Google Drive, Microsoft OneDrive và một số nền tảng khác.
Khi thử nghiệm, nhóm nghiên cứu đã tạo ra một file Google Drive chứa đoạn mã độc 300 từ được ngụy trang tinh vi bằng cách dùng font chữ màu trắng với kích thước cực nhỏ (size 1). Dù vậy, vẫn nhận diện và thực thi nội dung độc hại này.
Lệnh độc hại được thiết kế để tìm kiếm API key trong Google Drive của người dùng, sau đó đính kèm vào một URL đặc biệt và chuyển đến server bên ngoài. Quá trình này xảy ra ngay khi người dùng giao tiếp với khi tính năng Connectors đang được kích hoạt.

Khả năng bảo mật thông tin bị đe dọa nghiêm trọng khi cho phép thực thi các lệnh ẩn để chiếm đoạt dữ liệu từ Google Drive.
2. Phản hồi chính thức từ Google và OpenAI trước lỗ hổng bảo mật
Ông Andy Wen, Giám đốc cao cấp phụ trách bảo mật Google Workspace, cho biết đây không phải là lỗi riêng của Google Drive. Tuy nhiên, Google đã nhanh chóng triển khai thêm nhiều lớp bảo vệ nhằm ngăn chặn AI xử lý các lệnh ngầm tiềm ẩn rủi ro.
OpenAI đã nhận được cảnh báo từ đầu năm và hiện đã thực hiện các biện pháp phòng ngừa để ngăn chặn cuộc tấn công AgentFlayer thông qua tính năng Connectors. Tuy nhiên, giới chuyên gia vẫn cảnh báo về những rủi ro tiềm ẩn, đặc biệt với các hệ thống AI có quyền truy cập rộng vào kho dữ liệu đám mây.
3. Khuyến cáo an toàn dành cho người dùng
Sự cố này gióng lên hồi chuông cảnh tỉnh rằng các trợ lý AI dù thông minh đến đâu vẫn có thể biến thành công cụ rò rỉ thông tin nếu bị lợi dụng. Các cá nhân và tổ chức cần đặc biệt cảnh giác khi kích hoạt tính năng kết nối dịch vụ, nhất là khi làm việc với các tài liệu có nguồn gốc không đáng tin cậy.
Tình huống này minh chứng cho thấy ngay cả các nền tảng AI hiện đại như vẫn tồn tại những lỗ hổng bảo mật tiềm ẩn. Người dùng được khuyến cáo nên thận trọng với các file đính kèm từ nguồn không xác định, đồng thời hạn chế tối đa việc cấp quyền truy cập dữ liệu đám mây cho các ứng dụng AI khi chưa có cơ chế bảo vệ phù hợp.
