Văn Bản Tạo Ra Bởi Trí Tuệ Nhân Tạo Là Deepfake Đáng Sợ Nhất
Khi các chuyên gia và nhà nghiên cứu cố gắng đoán xem loại chiến dịch làm giả mạo nào có thể đe dọa cuộc bầu cử 2018 và 2020, video AI được tạo ra một cách gian lận thường đứng đầu danh sách. Mặc dù công nghệ vẫn đang phát triển, nhưng khả năng lạm dụng của nó làm kinh hãi đến mức các công ty công nghệ và các phòng thí nghiệm học thuật ưu tiên làm việc và tài trợ các phương pháp phát hiện. Các nền tảng xã hội đã phát triển chính sách đặc biệt cho bài đăng chứa “phương tiện tổng hợp và sửa đổi,” với hy vọng đạt được sự cân bằng đúng đắn giữa bảo toàn tự do ngôn luận và ngăn chặn sự lan truyền của những lời nói dối lan truyền. Nhưng bây giờ, cách đây khoảng ba tháng cho đến ngày 3 tháng 11, cơn sóng của những hình ảnh chuyển động deepfake dường như chưa bao giờ xuất hiện. Thay vào đó, một hình thức khác của phương tiện được tạo ra bởi Trí tuệ Nhân tạo đang thu hút sự chú ý, một hình thức khó nhận biết hơn nhưng có khả năng trở thành một lực lượng bao trùm trên internet: văn bản deepfake.

Tháng trước, GPT-3 đã được giới thiệu, bước tiến mới của văn bản tạo ra: một trí tuệ nhân tạo có thể tạo ra các câu văn nghe có vẻ rất giống với con người (đôi khi là kỳ quặc). Khi đầu ra của nó trở nên khó phân biệt hơn giữa văn bản được tạo ra bởi con người, ta có thể tưởng tượng một tương lai trong đó đa số nội dung viết mà chúng ta thấy trên internet đều được tạo ra bởi máy móc. Nếu điều này xảy ra, điều đó sẽ làm thay đổi cách chúng ta phản ứng với nội dung xung quanh chúng ta như thế nào?
Điều này sẽ không phải là điểm đột phá phương tiện đa dạng đầu tiên nơi giác quan về thực tế của chúng ta thay đổi đồng loạt. Khi Photoshop, After Effects và các công cụ chỉnh sửa hình ảnh và CGI khác bắt đầu xuất hiện ba thập kỷ trước, khả năng biến đổi của những công cụ này đối với những công việc nghệ thuật—cũng như ảnh hưởng của chúng đối với quan điểm của chúng ta về thế giới—đã ngay lập tức được nhận ra. “Adobe Photoshop dễ dàng là chương trình có ảnh hưởng nhất trong lịch sử xuất bản,” tuyên bố một bài báo từ Macworld năm 2000, thông báo về việc ra mắt Photoshop 6.0. “Hôm nay, các nghệ sĩ tài năng thêm những điều tinh tế bằng cách chỉnh sửa ảnh của họ bằng Photoshop, và người làm phim khiêu dâm sẽ không có gì để đề xuất ngoại trừ hiện thực nếu họ không chỉnh sửa mọi đồ họa của họ.”
Chúng ta đã chấp nhận công nghệ cho điều nó là và phát triển một sự hoài nghi khỏe mạnh. Rất ít người ngày nay tin rằng trang bìa tạp chí được chỉnh sửa bằng công nghệ airbrush thể hiện người mẫu như họ thực sự là. (Thực tế, thường là nội dung chưa qua chỉnh sửa mới thu hút sự chú ý của công chúng.) Nhưng chúng ta cũng không hoàn toàn phủ nhận những bức ảnh như vậy: Mặc dù đôi khi có những cuộc tranh luận gay gắt về tác động của việc làm thông thường hóa airbrushing—hoặc quan trọng hơn ngày nay, là việc sử dụng bộ lọc—nhưng chúng ta vẫn tin tưởng rằng những bức ảnh thể hiện một người thật được chụp vào một khoảnh khắc cụ thể trong quá khứ. Chúng ta hiểu rằng mỗi bức tranh có nguồn gốc trong thực tế.
Phương tiện được tạo ra, như video deepfake hoặc đầu ra của GPT-3, là khác biệt. Nếu được sử dụng một cách ác ý, không có bản gốc không thay đổi, không có vật liệu thô có thể được sản xuất làm cơ sở để so sánh hoặc làm bằng chứng cho một kiểm tra sự kiện. Vào đầu những năm 2000, việc phân tích những bức ảnh trước và sau của người nổi tiếng và thảo luận về việc liệu bức ảnh sau có tạo ra những ý tưởng không thực tế về sự hoàn hảo hay không, là dễ dàng. Năm 2020, chúng ta đối mặt với những thay đổi khuôn mặt của người nổi tiếng có vẻ ngày càng có khả năng xảy ra trong video khiêu dâm, và các đoạn video trong đó các nhà lãnh đạo thế giới nói những điều họ chưa bao giờ nói trước đó. Chúng ta sẽ phải điều chỉnh và thích nghi với một cấp độ không thực tế mới. Ngay cả các nền tảng truyền thông xã hội cũng nhận ra sự khác biệt này; các chính sách kiểm duyệt deepfake của họ phân biệt giữa nội dung phương tiện được tạo ra và nội dung chỉ là “được sửa đổi”.
Để kiểm duyệt nội dung deepfake, tuy nhiên, bạn phải biết rằng nó đang tồn tại. Trong tất cả các hình thức hiện nay, video có thể sẽ là dễ nhất để phát hiện. Video được tạo ra bởi trí tuệ nhân tạo thường có những dấu hiệu số có thể nhận biết được khi đầu ra rơi vào thung lũng kinh ngạc: “dấu nhận diện mềm” như cử động khuôn mặt của một người không đúng; một chiếc bông tai hoặc một số chiếc răng được kết xuất kém; hoặc nhịp tim của một người, có thể cảm nhận thông qua sự thay đổi tinh tế trong màu sắc, không xuất hiện. Nhiều trong những dấu hiệu này có thể được khắc phục bằng những điều chỉnh phần mềm. Ví dụ, trong video deepfake năm 2018, những người tham gia thường xuyên nhấp mắt sai; nhưng ngay sau khi phát hiện này được công bố, vấn đề đã được sửa. Âm thanh được tạo ra có thể tinh tế hơn—không có hình ảnh, nên ít cơ hội để mắc lỗi—nhưng những nỗ lực nghiên cứu hứa hẹn đang được tiến hành để xác định chúng cũng. Cuộc chiến giữa những kẻ làm giả và người xác nhận sự thật sẽ tiếp tục mãi mãi.
Rất quan trọng, công chúng ngày càng nhận thức về công nghệ này. Thực tế, kiến thức đó cuối cùng có thể đặt ra một loại rủi ro khác, liên quan đến nhưng vẫn khác biệt so với âm thanh và video được tạo ra: Các chính trị gia bây giờ sẽ có khả năng bác bỏ video thực tế, scandal làm ảnh hưởng đến họ bằng cách đơn giản nói, “Đó là deepfake!” Trong một ví dụ sớm của điều này, từ cuối năm 2017, những đại diện trực tuyến nhiệt huyết hơn của Tổng thống Mỹ đã đề xuất (lâu sau cuộc bầu cử) rằng đoạn băng "grab 'em" Access Hollywood có thể đã được tạo ra bằng một sản phẩm giọng tổng hợp có tên là Adobe Voco.
Nhưng văn bản tổng hợp—đặc biệt là loại văn bản đang được tạo ra ngày nay—đặt ra một thách thức khó khăn hơn. Sẽ dễ dàng tạo ra ở quy mô lớn, và với ít dấu hiệu hơn để phát hiện. Thay vì được triển khai vào những thời điểm nhạy cảm để tạo ra một scandal nhỏ hoặc một Bất ngờ tháng Mười, như có thể là trường hợp với video hoặc âm thanh tổng hợp, văn bản giả mạo có thể được sử dụng theo cách hỗn loạn, để kết hợp một chăn của những lời nói dối tràn ngập. Như bất kỳ ai theo dõi một hashtag nóng trên Twitter có thể chứng minh, những nhà hoạt động và những nhà tiếp thị đều nhận ra giá trị của việc chiếm lĩnh điều được biết đến là “phần trăm tiếng nói”: Việc thấy nhiều người diễn đạt cùng một quan điểm, thường là vào cùng một thời điểm hoặc ở cùng một nơi, có thể thuyết phục những người quan sát rằng mọi người đều cảm thấy một cách nhất định, bất kể liệu những người nói chính là đại diện thực sự—hoặc thậm chí là có thật hay không. Trong tâm lý học, điều này được gọi là ảo tưởng đa số. Khi thời gian và công sức cần thiết để sản xuất bình luận giảm đi, sẽ có khả năng tạo ra số lượng lớn nội dung được tạo ra bằng trí tuệ nhân tạo về bất kỳ chủ đề nào có thể tưởng tượng được. Thậm chí, có thể sẽ sớm có thuật toán đọc web, hình thành “ý kiến,” và sau đó đăng các phản hồi của chính chúng. Bộ sưu tập vô tận này của nội dung và ý kiến mới, chủ yếu được sản xuất bởi máy móc, có thể sau đó được xử lý bởi những máy móc khác, dẫn đến một vòng lặp phản hồi có thể sẽ thay đổi đáng kể hệ sinh thái thông tin của chúng ta.
Hiện tại, có khả năng phát hiện các bình luận lặp đi lặp lại hoặc tái chế sử dụng cùng các đoạn văn bản giống nhau để tràn ngập một phần ý kiến, chiếm đỉnh hashtag Twitter nóng hoặc thuyết phục khán giả thông qua bài đăng trên Facebook. Chiến thuật này đã được quan sát trong nhiều chiến dịch thao túng trong quá khứ, bao gồm cả những chiến dịch nhắm vào cuộc gọi của chính phủ Mỹ để nhận xét công cộng về các chủ đề như cho vay lương và chính sách trung lập mạng của FCC. Phân tích của Wall Street Journal về một số trường hợp này phát hiện hàng trăm nghìn đóng góp đáng ngờ, được xác định là như vậy vì chúng chứa các câu lặp đi lặp lại, dài mà ít có khả năng đã được soạn thảo tự nhiên bởi những người khác nhau. Nếu những bình luận này được tạo ra độc lập—bởi trí tuệ nhân tạo, ví dụ—những chiến dịch thao túng này sẽ khó phát hiện hơn nhiều.
Trong tương lai, video deepfake và âm thanh giả mạo có thể được sử dụng để tạo ra những khoảnh khắc đặc biệt, gây chấn động, chiếm lĩnh một chu kỳ báo chí hoặc để làm lệch sự chú ý khỏi một vụ scandal tự nhiên khác. Nhưng với văn bản giả mạo không thể phát hiện được—được che giấu dưới dạng những cuộc trò chuyện thông thường trên Twitter, Facebook, Reddit, và các nền tảng khác—có khả năng trở nên tinh tế hơn, phổ biến hơn và đen tối hơn nhiều. Khả năng tạo ra một ý kiến đa số giả mạo hoặc tạo ra cuộc đua vũ trang giả mạo bình luận—with minimal potential for detection—would enable sophisticated, extensive influence campaigns. Pervasive generated text has the potential to warp our social communication ecosystem: algorithmically generated content receives algorithmically generated responses, which feeds into algorithmically mediated curation systems that surface information based on engagement.
Sự tin tưởng của chúng ta vào nhau đang phân rã, và sự phân chia ngày càng trở nên phổ biến. Khi phương tiện tổng hợp của mọi loại—văn bản, video, ảnh và âm thanh—ngày càng trở nên phổ biến, và khi khả năng phát hiện trở thành một thách thức hơn, chúng ta sẽ cảm thấy khó khăn hơn để tin tưởng vào nội dung chúng ta thấy. Có lẽ không đơn giản như chúng ta đã làm với Photoshop, bằng cách sử dụng áp lực xã hội để kiểm soát phạm vi sử dụng của những công cụ này và chấp nhận rằng phương tiện xung quanh chúng ta không hoàn toàn như nó có vẻ. Lần này, chúng ta cũng phải học cách trở thành người tiêu thụ trực tuyến có phê phán hơn, đánh giá nội dung dựa trên giá trị của nó thay vì sự phổ biến của nó.
Nhiếp ảnh: Jabin Botsford/The Washington Post/Getty Images
