Những kẻ lừa đảo đang sử dụng trí thông minh nhân tạo để tạo ra âm thanh giả mạo giống với các thành viên trong gia đình bạn, gây thiệt hại hàng nghìn USD.
Người đàn ông đã gọi cho Ruth Card có giọng nói giống như cháu trai Brandon của bà. Khi anh ta nói rằng mình đang ở trong tù, không có ví hay điện thoại di động và cần tiền để được tại ngoại, Card đã cố gắng làm bất cứ điều gì có thể để giúp đỡ.
Bà nhớ lại cảm giác lúc đó, chắc chắn là sợ hãi. Rằng cô phải giúp đỡ ngay lập tức.
Ruth Card, 73 tuổi, và chồng mình là Greg Grace, 75 tuổi, đã đến ngân hàng gần nhất để rút 3.000 CAD, tương đương 2.200 USD, hạn mức tối đa hàng ngày. Sau đó, họ đến ngân hàng thứ hai để kiếm thêm tiền. Nhưng họ bị ngăn cản khi một quản lý ngân hàng nhận ra rằng họ có thể đang bị lừa.
Card nói trong một cuộc phỏng vấn với The Washington Post: 'Chúng tôi đã bị cuốn vào. Chúng tôi tin chắc rằng mình đang nói chuyện với Brandon.'

Các trường hợp lừa đảo mạo danh ở Mỹ và trên toàn thế giới đang tăng lên, và câu chuyện của bà Card chỉ là một phần nhỏ, chỉ ra rằng xu hướng này đang ngày càng lan rộng một cách đáng lo ngại. Công nghệ đang giúp kẻ xấu bắt chước giọng nói dễ dàng hơn và với chi phí thấp hơn, nhằm thuyết phục những người lớn tuổi rằng người thân của họ đang gặp nguy hiểm.
Năm ngoái, lừa đảo mạo danh là loại lừa đảo phổ biến thứ hai ở Mỹ, với hơn 36.000 báo cáo về việc bị lừa bởi những kẻ giả danh bạn bè và người thân trong gia đình, theo dữ liệu từ Ủy ban Thương mại Liên bang Mỹ. Hơn 5.100 trường hợp qua điện thoại, gây thiệt hại hơn 11 triệu USD.
Các con số cho thấy sự phát triển của công nghệ trí tuệ nhân tạo đã tạo ra những mối đe dọa mới, cho phép kẻ xấu sao chép giọng nói chỉ từ một mẫu âm thanh đơn giản. Với sự hỗ trợ của trí tuệ nhân tạo, một loạt các công cụ trực tuyến giá rẻ hiện nay có thể biến tệp âm thanh thành bản sao của giọng nói, cho phép kẻ lừa đảo 'nói' bất cứ điều gì họ muốn.
Các chuyên gia cho biết các cơ quan quản lý và thực thi pháp luật cũng như tòa án ở nhiều quốc gia không được trang bị đầy đủ để kiềm chế nạn lừa đảo này. Hầu hết các nạn nhân đều không có đủ bằng chứng để xác định thủ phạm và cảnh sát cũng gặp khó khăn trong việc theo dõi cuộc gọi và tiền từ những kẻ lừa đảo hoạt động vượt quốc gia.
Hany Farid, giáo sư pháp y kỹ thuật số tại Đại học California ở Berkeley, nói: 'Thật đáng sợ. Đó là một cơn bão hoàn hảo... tất cả các thành phần để tạo ra sự hỗn loạn đã có sẵn.'
Mặc dù cách thức lừa đảo của những kẻ mạo danh có thể đa dạng và linh hoạt, nhưng cơ bản chúng hoạt động theo nguyên tắc giống nhau. Kẻ lừa đảo sẽ giả danh một người đáng tin cậy - trẻ em, người yêu hoặc bạn bè - và thuyết phục nạn nhân gửi tiền cho họ vì họ đang gặp khó khăn.
Công nghệ giọng nói được tạo ra hiện nay đã làm cho các mưu mẹo này trở nên thuyết phục hơn. Các nạn nhân báo cáo rằng họ đã trải qua nỗi kinh hoàng khi nghe chuyện người thân của họ gặp nguy hiểm.
Điều này cũng là một hậu quả tiêu biểu của sự gia tăng gần đây về trí tuệ nhân tạo tổng quát, với khả năng hỗ trợ các phần mềm tạo văn bản, hình ảnh hoặc âm thanh dựa trên dữ liệu đã được cung cấp. Sự tiến bộ trong toán học và khả năng tính toán đã cải thiện cơ chế đào tạo cho các phần mềm như vậy, thúc đẩy sự phát triển của một nhóm công ty phát triển chatbot AI, trình tạo hình ảnh và trình tạo giọng nói giống thật.
Giáo sư Farid cho biết các phần mềm tạo giọng nói AI có thể phân tích các yếu tố làm cho giọng nói của một người trở nên độc đáo - bao gồm tuổi tác, giới tính và cách phát âm - và tìm kiếm trong cơ sở dữ liệu lớn về giọng nói để tìm ra những giọng nói tương tự và dự đoán các mẫu.
Sau đó, chúng có thể tái tạo lại cao độ, dải âm thanh và các âm thanh riêng lẻ của giọng nói từ một người để tạo ra hiệu ứng tổng thể tương tự, ông nói thêm. Và tất cả những gì họ cần là một mẫu âm thanh ngắn, có thể được lấy từ những nơi như YouTube, podcast, quảng cáo, video TikTok, Instagram hoặc Facebook.
'Hai năm trước, thậm chí chỉ cần một năm trước, bạn cần rất nhiều dữ liệu âm thanh để sao chép giọng nói của một người', Farid nói. 'Bây giờ… nếu bạn có một trang Facebook… hoặc nếu bạn đã ghi âm giọng nói của mình trên TikTok trong 30 giây, mọi người có thể sao chép giọng nói của bạn.'

ElevenLabs, một công ty khởi nghiệp về công cụ tổng hợp giọng nói bằng AI thành lập vào năm 2022, có thể biến đổi một mẫu giọng nói ngắn thành giọng nói tổng hợp thông qua một công cụ độc quyền. Theo trang web của nhà phát triển, phần mềm ElevenLabs có thể miễn phí hoặc có giá từ 5 đến 330 USD mỗi tháng để sử dụng, với mức giá cao hơn cho phép người dùng tạo ra nhiều âm thanh hơn.
ElevenLabs đã nhận được chỉ trích về công cụ của mình, được sử dụng để sao chép giọng nói của những người nổi tiếng. Công ty đã không đưa ra phản hồi, nhưng trong một dòng trên Twitter, đại diện của ElevenLabs cho biết họ đang triển khai các biện pháp bảo vệ để ngăn chặn việc lạm dụng, bao gồm cấm người dùng miễn phí tạo ra giọng nói tùy chỉnh và triển khai công cụ phát hiện âm thanh do AI tạo ra.
Tuy nhiên, các biện pháp bảo vệ như vậy đã quá muộn đối với các nạn nhân như Benjamin Perkin, người mà cha mẹ đã mất hàng nghìn USD tiết kiệm vì một vụ lừa đảo bằng giọng nói.
Cơn ác mộng của Perkin bắt đầu khi cha mẹ nhận được cuộc gọi từ một luật sư, người nói rằng con trai họ đã giết một nhà ngoại giao Mỹ trong một vụ tai nạn xe hơi. Perkin đang bị giam giữ và cần tiền cho các chi phí pháp lý. Sau đó, một cuộc gọi khác xuất hiện, với giọng nói giống như của “Perkin”, yêu cầu khoảng 15.000 USD trước khi ra tòa vào cuối ngày đó.
Cha mẹ của Perkin sau sự việc đã nói rằng cuộc gọi có vẻ lạ lùng, nhưng họ đã cảm thấy như mình đã thực sự trò chuyện với con trai mình. Trong tình trạng hoảng loạn, họ vội vã đến ngân hàng để rút toàn bộ tiền mặt và gửi cho người lạ tự xưng là luật sư.
Khi Perkin thật gọi điện cho bố mẹ vào tối hôm đó, mọi thứ đã rối bời. Không biết kẻ lừa đảo đã lấy mẫu giọng nói của Perkin từ đâu, nhưng có thể từ các video anh đã đăng trên YouTube về sở thích trượt tuyết của mình. Perkin cho biết gia đình đã báo cáo cảnh sát nhưng không giúp họ lấy lại số tiền.
'Không có bảo hiểm. Không thể lấy lại được. Đã mất hết'. Anh chia sẻ.
Will Maxson, trợ lý giám đốc bộ phận thực hành tiếp thị của FTC, cho biết việc theo dõi các kẻ lừa đảo bằng giọng nói có thể “đặc biệt khó khăn” vì họ có thể sử dụng điện thoại ở bất kỳ đâu trên thế giới, làm cho việc xác định cơ quan nào có thẩm quyền trở nên phức tạp.
Maxson kêu gọi mọi người nên cảnh giác liên tục. Nếu một người thân yêu nói với bạn rằng họ cần tiền, hãy tạm dừng cuộc gọi và thử gọi riêng cho họ. Nếu một cuộc gọi đáng ngờ đến từ số điện thoại của một người thân, hãy hiểu rằng cuộc gọi đó cũng có thể là giả mạo. Quan trọng nhất, đừng bao giờ trả tiền cho người lạ bằng các công cụ khó theo dõi như thẻ quà tặng, cũng như cảnh giác với bất kỳ yêu cầu nào về tiền mặt.
Trong khi đó, giáo sư Farid đề xuất rằng các tòa án nên đưa ra trách nhiệm cho các công ty AI nếu sản phẩm mà họ phát triển gây ra tổn hại.
Về phần Card, trải nghiệm đã làm cho bà trở nên cảnh giác hơn. Năm ngoái, sau khi trò lừa đảo, bà đã chia sẻ cảnh báo trên báo địa phương để cảnh báo mọi người về những rủi ro này. Bởi vì không mất tiền, bà đã không báo cáo cho cảnh sát. Tuy nhiên, quan trọng hơn hết, bà nói rằng bà cảm thấy xấu hổ về việc này.
“Đó không phải là một câu chuyện thú vị”, bà chia sẻ. “Nhưng nó không cần phải tốt hơn câu chuyện giả mạo đã làm chúng tôi tin tưởng.”
Tham khảo từ The Washington Post
