
“Cho đến sau khoảng sáu tháng, khả năng là [họ] đang thao túng hình ảnh để phá vỡ băm thực sự lo ngại,” Hadley nói. “Ngành công nghiệp công nghệ đã làm rất tốt để xây dựng công nghệ tự động, khủng bố có thể bắt đầu sử dụng gen AI để tránh những gì đã được thực hiện trước đó.”
Các ví dụ khác mà các nhà nghiên cứu tại Tech Against Terrorism đã khám phá trong những tháng gần đây bao gồm một kênh truyền thông neo-Nazi chia sẻ hình ảnh được tạo ra bằng AI sử dụng các gợi ý động cơ phân biệt chủng tộc và chống Do Thái được dán vào một ứng dụng có sẵn trên cửa hàng Google Play; các nhân vật cánh hữu tạo ra một “hướng dẫn chiến thuật hình ảnh” khuyến khích người khác cách sử dụng công cụ hình ảnh do AI tạo ra để tạo ra các biểu ngữ cực đoan; Nhà nước Hồi giáo xuất bản một hướng dẫn hỗ trợ kỹ thuật về cách sử dụng công cụ trí tuệ nhân tạo sinh sản một cách an toàn; người dùng ủng hộ IS của một dịch vụ lưu trữ tuyên bố đã sử dụng một hệ thống nhận diện giọng nói tự động (ASR) dựa trên AI để chuyển văn bản các tuyên bố quảng bá tiếng Ả Rập của IS; và một phương tiện truyền thông ủng hộ al-Qaeda xuất bản nhiều áp phích với những hình ảnh có khả năng cao đã được tạo ra bằng một nền tảng trí tuệ nhân tạo sinh sản.
Vượt ra khỏi việc mô tả mối đe doạ do các công cụ trí tuệ nhân tạo sinh sản có thể chỉnh sửa hình ảnh, Tech Against Terrorism đã công bố một báo cáo mới đề cập đến những cách khác mà các công cụ trí tuệ nhân tạo sinh sản có thể được sử dụng để hỗ trợ các nhóm cực đoan. Các cách này bao gồm việc sử dụng các công cụ tự động dịch ngôn ngữ có thể nhanh chóng và dễ dàng chuyển đổi tuyên truyền thành nhiều ngôn ngữ, hoặc khả năng tạo ra các thông điệp cá nhân ở quy mô lớn để hỗ trợ các nỗ lực tuyển dụng trực tuyến. Nhưng Hadley tin rằng AI cũng mang lại cơ hội để vượt lên trước các nhóm cực đoan và sử dụng công nghệ để đề phòng những gì họ sẽ sử dụng nó cho.
“Chúng tôi sẽ hợp tác với Microsoft để tìm ra cách sử dụng kho lưu trữ vật liệu của chúng tôi để tạo ra một hệ thống phát hiện gen AI một cách kiểu mẫu để chống lại mối đe doạ mới nổi rằng gen AI sẽ được sử dụng cho nội dung khủng bố ở quy mô lớn,” Hadley nói. “Chúng tôi tin rằng gen AI có thể được sử dụng để bảo vệ trước những sử dụng có hại của gen AI.”
Đối tác đã được công bố hôm nay, vào trước đêm Hội nghị Thượng đỉnh Lãnh đạo Christchurch Call, một cuộc chuyển động được thiết kế để loại bỏ khủng bố và nội dung cực đoan khỏi internet, sẽ được tổ chức tại Paris.
“Việc sử dụng các nền tảng kỹ thuật số để lan truyền nội dung cực đoan bạo lực là một vấn đề cấp bách với những hậu quả trong thế giới thực,” Brad Smith, Phó Chủ tịch và Tổng giám đốc tại Microsoft nói trong một tuyên bố. “Bằng cách kết hợp khả năng của Tech Against Terrorism với trí tuệ nhân tạo, chúng tôi hy vọng có thể giúp tạo ra một thế giới an toàn cả trực tuyến lẫn ngoại tuyến.”
Trong khi các công ty như Microsoft, Google và Facebook đều có các bộ phận nghiên cứu trí tuệ nhân tạo riêng và có lẽ đã triển khai nguồn lực của họ để chống lại vấn đề này, sáng kiến mới cuối cùng sẽ hỗ trợ những công ty không thể đối phó với những nỗ lực này một mình.
“Điều này sẽ đặc biệt quan trọng đối với những nền tảng nhỏ không có trung tâm nghiên cứu trí tuệ nhân tạo riêng,” Hadley nói. “Ngay cả bây giờ, với cơ sở dữ liệu băm, những nền tảng nhỏ có thể chỉ đơn giản bị áp đảo bởi nội dung này.”
Nguy cơ của nội dung trí tuệ nhân tạo không chỉ giới hạn ở các nhóm cực đoan. Tháng trước, Internet Watch Foundation, một tổ chức phi lợi nhuận có trụ sở tại Anh làm việc để loại bỏ nội dung lạm dụng trẻ em khỏi internet, đã công bố một báo cáo mô tả sự hiện diện ngày càng tăng của nội dung lạm dụng tình dục trẻ em (CSAM) được tạo ra bởi công cụ trí tuệ nhân tạo trên dark web.
Các nhà nghiên cứu đã phát hiện hơn 20,000 hình ảnh được tạo ra bởi trí tuệ nhân tạo được đăng lên một diễn đàn CSAM trên dark web trong vòng một tháng, với 11,108 hình ảnh này được đánh giá là có khả năng lớn nhất là phạm tội bởi các nhà nghiên cứu của IWF. Như các nhà nghiên cứu của IWF viết trong báo cáo của họ, “Những hình ảnh AI này có thể độc đáo đến mức không thể phân biệt với hình ảnh thực tế.”
