

“Tùy thuộc vào kịch bản tấn công, khả năng thời gian thực và chất lượng mẫu giọng nói bị đánh cắp phải được xem xét,” nói Lea Schönherr, một nhà nghiên cứu về an ninh và học máy đối đầu với đối thủ tại Trung tâm An ninh Thông tin CISPA Helmholtz ở Đức. “Mặc dù thường nói rằng chỉ cần vài giây của giọng nói bị đánh cắp, chất lượng và độ dài đều ảnh hưởng lớn đến kết quả của giả mạo âm thanh.”
Các chiêu lừa số và tấn công kỹ thuật xã hội như lừa đảo qua mạng là mối đe dọa ngày càng gia tăng, nhưng các nhà nghiên cứu lưu ý rằng lừa đảo đã tồn tại hàng thập kỷ trong đó kẻ tấn công gọi điện đến nạn nhân và cố gắng giả mạo người nào đó mà mục tiêu biết—không cần đến Trí tuệ Nhân tạo. Sự thật về sự trường tồn của chúng có nghĩa là những mánh lừa này ít nhất là có hiệu quả một cách tương đối để lừa đảo người ta gửi tiền cho kẻ tấn công.
“Những chiêu lừa này đã tồn tại mãi mãi. Hầu hết thời gian, nó không thành công, nhưng đôi khi họ bắt được một nạn nhân đã được chuẩn bị tin vào những gì họ đang nói, vì lý do nào đó,” nói Crane Hassold, một nhà nghiên cứu kỹ thuật xã hội lâu năm và người phân tích hành vi số cho FBI trước đây. “Rất nhiều lần, những nạn nhân đó sẽ khẳng định rằng người họ đang nói chuyện với là người được giả mạo, trong khi thực tế chỉ là trí não của họ điền vào những khoảng trống.”
Hassold cho biết bà của ông đã là nạn nhân của một chiêu lừa giả mạo vào giữa những năm 2000 khi kẻ tấn công gọi điện và giả vờ là ông, thuyết phục bà gửi cho họ 1.500 đô la.
“Với bà của tôi, kẻ lừa đảo không nói người đang gọi là ai ban đầu, họ chỉ bắt đầu nói về việc họ đã bị bắt giữ khi tham gia một lễ hội âm nhạc ở Canada và cần bà gửi tiền bảo lãnh. Phản ứng của bà là ‘Crane, đó có phải là bạn không?’ và sau đó họ có đúng những gì họ cần,” ông nói. “Kẻ lừa đảo chủ yếu đang làm cho nạn nhân tin vào những gì họ muốn họ tin.”
Như nhiều kỹ thuật lừa đảo xã hội khác, các chiêu lừa giả mạo giọng nói hoạt động tốt nhất khi mục tiêu bị cuốn vào cảm giác khẩn cấp và chỉ cố gắng giúp đỡ ai đó hoặc hoàn thành một nhiệm vụ mà họ tin là trách nhiệm của họ.

“Bà tôi đã để lại cho tôi một tin nhắn thoại khi tôi đang lái xe đi làm, nói khoảng như ‘Tôi hy vọng bạn ổn. Đừng lo lắng, tôi đã gửi tiền, và tôi sẽ không nói với ai,’” Hassold nói.
Justin Hutchens, giám đốc nghiên cứu và phát triển tại công ty an ninh mạng Set Solutions, nói rằng anh ta nhìn nhận vấn đề về các chiêu lừa giả mạo giọng nói như một mối đe dọa đang tăng, nhưng anh ta cũng lo lắng về một tương lai trong đó các chiêu lừa đảo được động viên bởi trí tuệ nhân tạo trở nên tự động hóa hơn.
“Tôi kỳ vọng rằng trong tương lai gần, chúng ta sẽ thấy các đối tác đe dọa kết hợp công nghệ giả mạo giọng nói với các tương tác trò chuyện được hỗ trợ bởi các mô hình ngôn ngữ lớn như ChatGPT của Open AI,” Hutchens nói.
Tuy nhiên, Hassold cảnh báo rằng hiện tại không nên quá vội vàng đặt ra giả định rằng các chiêu lừa giả mạo giọng nói đang được thúc đẩy bởi deepfakes. Sau tất cả, phiên bản tương tự của chiêu lừa này vẫn tồn tại và vẫn thuyết phục đúng mục tiêu đúng thời điểm.
