Các tư duy tiêu cực trong game sẽ không còn là vấn đề khi có 'người giám sát' AI phát hiện ngay lập tức.
Theo thông báo từ trước đó, Call of Duty: Modern Warfare 3 sẽ chính thức ra mắt vào ngày 10/11 tới. Càng đến gần ngày ra mắt, cộng đồng game thủ lại được phen hồi hộp sau thời gian dài đợi chờ. Đặc biệt, ngày này cũng đánh dấu sự xuất hiện của công nghệ AI giám sát hành vi tiêu cực của người chơi.

Activision đã hợp tác với công ty Modulate, đưa vào game Modern Warfare 3 hệ thống kiểm soát bằng trí tuệ nhân tạo mang tên là ToxMod. ToxMod cam kết có khả năng nhận diện những lời nói mang tính phân biệt, thù ghét và quấy rối trong thời gian mà game thủ trải nghiệm trò chơi. Công cụ này không chỉ cấm trực tiếp người chơi mà còn thực hiện quan sát và báo cáo hành vi, quyết định hình phạt sẽ được Activision xử lý sau đó.
Trước đó, Modulate cho biết mô hình của họ đã trải qua nhiều bài kiểm tra trong thời gian dài và ở nhiều tình huống khác nhau để có khả năng phân biệt giữa những lời nói độc hại và những lời nói không mang ý xấu.

Ngoài ra, hệ thống ToxMod cũng sẽ trải qua một đợt thử nghiệm đối với các tựa game khác thuộc series Call of Duty như Warfare 2, Warzone... trước khi ra mắt chính thức cùng Modern Warfare 3 vào ngày 10/11. Giám đốc của Activision - Michael Vance chia sẻ về ToxMod rằng: 'Đây là một bước quan trọng hướng tới việc tạo ra và duy trì những trải nghiệm vui vẻ, công bằng và chào đón mọi người chơi'.
Bước tiến mới này của nhà sản xuất đang nhận được sự ủng hộ đặc biệt, đặc biệt là khi tình trạng 'độc hại' trong thế giới game ngày càng phức tạp. Mặc dù có sự kỳ vọng, nhưng người chơi cũng bày tỏ lo ngại về việc số lượng người chơi lớn có thể ảnh hưởng đến quá trình kiểm soát và gây ra những vấn đề không mong muốn.
