Hiện nay, tình hình tội phạm lừa đảo trên mạng ngày càng phức tạp, với các kẻ gian sử dụng thủ đoạn ngày càng tinh vi hơn. Một trong những thủ đoạn đang rất phổ biến hiện nay là công nghệ Deepfake - một ứng dụng trí tuệ nhân tạo giả mạo cuộc gọi video để thu thập dữ liệu khuôn mặt.

Ảnh minh họa
Một số chiêu lừa đảo thường gặp mà đối tượng sử dụng để lừa đảo
Kẻ gian sử dụng công nghệ Deepfake để giả mạo hình ảnh và giọng nói của cán bộ các cơ quan Nhà nước (cảnh sát, cơ quan thuế, tòa án, …) hoặc người thân của nạn nhân để thực hiện cuộc gọi video với nạn nhân.
Trong quá trình thực hiện cuộc gọi video, kẻ gian sẽ yêu cầu nạn nhân nhìn thẳng, nhìn sang trái, nhìn sang phải, nhìn lên, nhìn xuống. Họ sẽ ghi lại video và sử dụng để thực hiện việc mở tài khoản trực tuyến (eKYC) tại các tổ chức tài chính - ngân hàng.
Trong một số trường hợp, kẻ gian yêu cầu nạn nhân cung cấp thêm thông tin cá nhân như số CMT/CCCD, số điện thoại, địa chỉ… Khách hàng không ý thức thực hiện theo yêu cầu này, đã giúp đỡ kẻ gian có đủ dữ liệu để đăng ký mở tài khoản thành công. Kết quả cuối cùng, kẻ gian sẽ sử dụng các tài khoản này với mục đích xấu.
Khuyến cáo để phòng tránh rủi ro bị lừa đảo và bảo vệ quyền lợi của khách hàng
Khách hàng cần tăng cảnh giác với các cuộc gọi giới thiệu là nhân viên của cơ quan nhà nước hoặc người thân đặc biệt, yêu cầu thực hiện các hành động khác thường như: nhìn thẳng, nhìn sang trái, nhìn lên, nhìn xuống.
Không cung cấp thông tin cá nhân như số điện thoại, số CMT/CCCD, địa chỉ cho bất kỳ ai không quen biết hoặc không rõ mục đích sử dụng.
Nếu có nghi ngờ về việc bị lừa đảo, khách hàng cần ngay lập tức liên hệ với ngân hàng qua hotline 24/7 hoặc đến chi nhánh/PGD gần nhất để được hỗ trợ kịp thời. Đồng thời, thông báo cho cơ quan chức năng tại địa chỉ https://canhbao.ncsc.gov.vn hoặc báo cáo trên Dự án chống lừa đảo https://chongluadao.vn.
