Tính năng này sẽ hiển thị trên Facebook, Instagram và Threads trong các tháng sắp tới.
Sự tiến bộ của AI ngày càng tiên tiến và dễ dàng tiếp cận đã gây ra nhiều vấn đề, đặc biệt là sự lan tràn của các hình ảnh giả mạo trên mạng xã hội. Những hình ảnh này có thể được sử dụng để lan truyền thông tin sai lệch, gây tổn hại cho uy tín của cá nhân hoặc thậm chí là để lừa đảo người dùng.
Để giải quyết vấn đề này, Meta đã công bố kế hoạch phát hiện và đánh dấu các hình ảnh AI được đăng tải trên các nền tảng của mình, bao gồm Facebook, Instagram và Threads. Việc đánh dấu này sẽ giúp người dùng nhận biết được hình ảnh nào được tạo ra bởi AI và có thể cảnh giác trước các thông tin sai lệch tiềm ẩn.
Nick Clegg, Chủ tịch phụ trách các vấn đề toàn cầu của Meta cho biết: 'Meta sẽ đánh dấu các hình ảnh được tạo bởi công cụ AI với nhãn 'Được tưởng tượng bằng AI' để người dùng có thể phân biệt giữa hình thật và hình được tạo bởi AI.'
Các hình ảnh được tạo ra trên các dịch vụ của OpenAI, Microsoft, Adobe, Midjourney, Shutterstock và Google của Alphabet cũng sẽ được Meta gắn nhãn sau khi hệ thống mới được thiết lập và đi vào hoạt động.
Meta đang phát triển khả năng nhận diện hình ảnh do AI tạo ra và sẽ bắt đầu áp dụng nhãn này trên tất cả các ứng dụng của mình bằng mọi ngôn ngữ trong thời gian tới.
Clegg cho biết việc xác định nội dung âm thanh và video do AI tạo ra ngày càng khó khăn hơn vì các công cụ ngày càng tinh vi. Tuy nhiên, Meta đang phát triển một tính năng cho phép người dùng báo cáo các nội dung video hoặc âm thanh do AI tạo ra để công ty có thể gắn nhãn vào đó.
Ngoài việc cho phép người dùng tự báo cáo video và âm thanh AI, Meta có thể xử phạt những người dùng cố ý tạo nội dung deepfake và cố ý không báo cáo.
Clegg tuyên bố thêm rằng nếu Meta xác định rằng một số hình ảnh, video hoặc nội dung âm thanh do AI tạo hoặc chỉnh sửa có nguy cơ đánh lừa công chúng đặc biệt cao về các vấn đề quan trọng, thì Meta có thể thêm nhãn nổi bật hơn nếu thích hợp.
Không chỉ riêng Meta, nhiều công ty trong ngành đang nỗ lực tìm cách xác định nội dung gây hiểu lầm do AI tạo ra khi mà thời gian cuộc bầu cử đến gần. Vào tháng 9, Microsoft đã cảnh báo về việc hình ảnh AI từ Trung Quốc đang được sử dụng để gây ảnh hưởng đến cử tri Mỹ.
Gần đây, nhiều cư dân New Hampshire đã nhận cuộc gọi tự động dài 39 giây, giả dạng Tổng thống Biden với yêu cầu họ không bỏ phiếu. Theo các chuyên gia khẳng định, hình thực giả này được tạo ra bằng công cụ chuyển văn bản thành giọng nói do ElevenLabs phát triển, điều này dẫn đến việc FCC bỏ phiếu cấm sử dụng giọng nói AI trong các cuộc gọi tự động.