
“Bạn có trong tình thế nguy hiểm không? ... Bạn nghe có vẻ như bạn không thể nói chuyện.” Người em họ của Karah Preiss, Leslie, buộc tội cô đang buồn ngủ và lạc quan, rồi cuối cùng cắt máy, nhưng không đoán được sự thật. Preiss đã thực hiện cuộc gọi bằng một bản sao phần mềm của giọng nói của mình được tạo ra để chứng minh khả năng của trí tuệ nhân tạo trong việc đánh lừa.
Preiss kể về thí nghiệm gia đình của mình trong phần thứ năm của podcast Sleepwalkers, một hướng dẫn về sự bùng nổ gần đây của trí tuệ nhân tạo. Tập này nghiên cứu cách công nghệ AI đang làm thay đổi nhận thức về hiện thực trong những trò đùa điện thoại, trên Facebook, trong làng điện ảnh và chính trị.
Video giả mạo được biết đến với tên gọi deepfakes là ví dụ mạnh mẽ về cách AI có thể làm đảo lộn giác quan thông thường của chúng ta về đúng và sai. Thuật ngữ này xuất phát từ một tài khoản Reddit cùng tên đã đăng các đoạn video khiêu dâm vào cuối năm 2017 với khuôn mặt của các nữ diễn viên Hollywood được đổi chỗ.

