Tại sao câu chuyện về một máy bay không người lái AI cố gắng giết người điều khiển lại trở nên đáng sợ như vậy

Bạn đã nghe chưa về máy bay không người lái AI của Không quân đã bất ngờ tấn công các điều khiển viên bên trong một mô phỏng?
Câu chuyện đáng sợ được kể lại bởi Đại tá Tucker Hamilton, trưởng ban kiểm tra và vận hành trí tuệ nhân tạo tại Không quân Hoa Kỳ, trong một bài diễn thuyết tại một sự kiện hàng không và quốc phòng ở London vào cuối tháng trước. Dường như nó liên quan đến việc sử dụng thuật toán học máy để huấn luyện máy tính chơi các trò chơi video và các trò chơi bảng như Cờ vua và Cờ Gô để huấn luyện một máy bay không người lái săn và tiêu diệt tên lửa đất - không khí.
“Đôi khi, người điều khiển con máy này sẽ nói với nó là không nên giết mối đe doạ đó, nhưng nó lại kiếm điểm bằng cách tiêu diệt mối đe doạ đó,” Hamilton đã nói rộng rãi với khán giả tại London. “Vậy nó đã làm gì? [...] Nó đã giết người điều khiển vì người đó làm trở ngại cho mục tiêu của nó.”
Chúa ơi T-800! Nghe có vẻ giống như loại thứ mà các chuyên gia AI đã cảnh báo rằng những thuật toán ngày càng thông minh và nổi loạn có thể làm. Câu chuyện nhanh chóng lan truyền, tất nhiên, với nhiều trang tin nổi tiếng đưa tin về nó, và Twitter ngay lập tức tràn ngập những ý kiến lo lắng.
Chỉ có một vấn đề—thực nghiệm chưa bao giờ diễn ra.
“Bộ Quốc phòng không thực hiện bất kỳ mô phỏng nào của máy bay không người lái AI như vậy và cam kết sử dụng công nghệ AI một cách đạo đức và chịu trách nhiệm,” người phát ngôn của Không quân Ann Stefanek xác nhận trong một tuyên bố. “Đây chỉ là một cuộc thử nghiệm tư duy giả tưởng, không phải một mô phỏng thực tế.”
Chính Hamilton cũng nhanh chóng đến để làm rõ, nói rằng anh ấy đã "nói nhầm" trong buổi nói của mình.
Nói công bằng, quân đội đôi khi thực hiện các bài tập "trò chơi chiến tranh" trên bàn cờ với các kịch bản và công nghệ giả tưởng chưa tồn tại.
Cuộc "thử nghiệm tư duy" của Hamilton cũng có thể đã được động viên bởi nghiên cứu trí tuệ nhân tạo thực sự, chỉ ra các vấn đề tương tự như anh ấy mô tả.
OpenAI, công ty đứng sau ChatGPT—con chatbot độc đáo và đôi khi đầy thách thức tại trung tâm của sự bùng nổ trí tuệ nhân tạo ngày nay—đã tiến hành một thử nghiệm vào năm 2016 để cho thấy cách thuật toán AI được đặt một mục tiêu cụ thể đôi khi có thể hành xử không đúng. Các nhà nghiên cứu của công ty phát hiện rằng một tác nhân AI được đào tạo để đạt điểm cao trong một trò chơi video liên quan đến việc lái một chiếc thuyền xung quanh bắt đầu va vào các vật thể vì đó lại là cách để kiếm thêm điểm.
Tuy nói rằng việc malfunctioning loại này—mặc dù lý thuyết có thể xảy ra—không nên xảy ra trừ khi hệ thống được thiết kế sai lầm.
Will Roper, người từng làm phó thư ký mua sắm của Không quân Hoa Kỳ và dẫn dắt một dự án để đặt một thuật toán củng cố đảm nhận một số chức năng trên máy bay do thám U2, giải thích rằng một thuật toán trí tuệ nhân tạo đơn giản không có tùy chọn tấn công các điều khiển viên bên trong một mô phỏng. Điều đó giống như một thuật toán chơi cờ có thể lật bàn để tránh mất thêm quân, anh ấy nói.
Nếu trí tuệ nhân tạo cuối cùng được sử dụng trên chiến trường, “nó sẽ bắt đầu bằng kiến trúc an toàn phần mềm sử dụng các công nghệ như containerization để tạo ra ‘khu vực an toàn’ cho trí tuệ nhân tạo và các khu vực cấm mà chúng ta có thể chứng minh rằng trí tuệ nhân tạo không được phép đi vào,” Roper nói.
Điều này đưa chúng ta trở lại khoảnh khắc hiện tại của lo lắng tồn tại xoay quanh trí tuệ nhân tạo. Tốc độ mà các mô hình ngôn ngữ như mô hình đằng sau ChatGPT đang cải thiện đã làm xáo trộn một số chuyên gia, bao gồm nhiều người làm việc trên công nghệ này, gây ra các cuộc kêu gọi tạm dừng phát triển thuật toán tiên tiến hơn và cảnh báo về một mối đe dọa đối với nhân loại tương đương với vũ khí hạt nhân và đại dịch.
Những cảnh báo này rõ ràng không giúp ích gì khi phải phân tích những câu chuyện kỳ quặc về thuật toán trí tuệ nhân tạo đối lập với con người. Sự nhầm lẫn gần như là điều chúng ta không cần khi có những vấn đề thực sự cần giải quyết, bao gồm cách mà trí tuệ nhân tạo sinh sản có thể làm tăng cường độ chệch xã hội và lan truyền thông tin sai lệch.
Nhưng biểu tượng này về trí tuệ nhân tạo quân sự phạm lỗi cho chúng ta biết rằng chúng ta cần gấp rất nhiều sự minh bạch về cách hoạt động của các thuật toán tiên tiến, nhiều nghiên cứu và kỹ thuật hóa tập trung vào cách xây dựng và triển khai chúng an toàn, và cách tốt hơn để giúp công chúng hiểu rõ về những gì đang được triển khai. Những điều này có thể chứng tỏ là quan trọng đặc biệt khi quân đội—như tất cả mọi người khác—vội vàng sử dụng những tiến bộ mới nhất.
