Xe tự lái gặp khó khăn hơn trong việc phát hiện trẻ em và người đi bộ có da đen, theo nghiên cứu mới
Trí tuệ nhân tạo đã có một lịch sử đen tối về độ chệch, từ hệ thống nhận diện khuôn mặt nhầm lẫn người da đen đến chatbot tỏ lòng kính trọng với Hitler. Trong một số trường hợp, những hậu quả có thể là chết người.
Một ví dụ điển hình đã được phơi bày trong tuần này. Theo nghiên cứu mới, các hệ thống phát hiện người đi bộ được sử dụng trong nghiên cứu xe tự lái có độ chệch lớn về độ tuổi và chủng tộc.
Nghiên cứu này thêm một rào cản nữa vào quá trình triển khai ô tô không người lái. Nó cũng phơi bày một vấn đề đáng lo ngại có thể thêm vào an toàn giao thông.
Những kết quả này xuất phát từ một đánh giá hệ thống phát hiện người đi bộ của tám hệ thống phổ biến. Các nhà nghiên cứu từ Đại học King’s London (KCL) đã kiểm thử phần mềm trên hơn 8.000 hình ảnh của người đi bộ.
Họ phát hiện rằng độ chính xác trung bình của hệ thống đối với người lớn cao hơn gần 20% so với trẻ em. Hệ thống cũng chính xác hơn 7.5% đối với người đi bộ có làn da sáng hơn so với những người có làn da đen.
Những chênh lệch này xuất phát từ một nguyên nhân phổ biến của độ chệch trong trí tuệ nhân tạo: dữ liệu đào tạo không đại diện.
“Có một tục ngữ cũ trong kỹ thuật và khoa học dữ liệu, 'Rubbish in, rubbish out.' Hệ thống AI cần được đào tạo với rất nhiều dữ liệu đào tạo, và nhược điểm với dữ liệu đó sẽ không tránh khỏi phản ánh trong AI,” Tiến sĩ Jie Zhang, giảng viên khoa học máy tính tại KCL, nói với TNW.
“Trong trường hợp này, các bộ sưu tập hình ảnh mã nguồn mở được sử dụng để đào tạo các hệ thống phát hiện người đi bộ này không đại diện cho tất cả người đi bộ, và nghiêng về người lớn có làn da sáng. Với ít dữ liệu để đào tạo, AI trở nên ít chính xác khi phát hiện các nhóm ít đại diện.”
Một vấn đề khác nảy ra trong điều kiện ánh sáng. Dưới điều kiện tương phản và độ sáng thấp, độ chệch đối với trẻ em và những người có làn da đen được làm trầm trọng hơn. Điều này ngụ ý rằng cả hai nhóm sẽ tăng nguy cơ trong việc lái xe vào ban đêm.
Mặc dù các nhà sản xuất ô tô không công bố chi tiết về phần mềm phát hiện người đi bộ của họ, nhưng thường dựa trên các hệ thống mã nguồn mở giống như trong nghiên cứu. Zhang tin rằng họ cũng gặp phải những vấn đề tương tự.
Để giảm thiểu rủi ro, cô muốn có thêm sự minh bạch và quy định chặt chẽ hơn về các hệ thống phát hiện người đi bộ.
“Các nhà phát triển nên bắt đầu bằng cách trở nên minh bạch hơn khi nói về cách hệ thống phát hiện của họ được đào tạo, cũng như cách chúng hoạt động, để có thể đánh giá một cách khách quan — hậu quả của việc không làm như vậy có thể rất nặng nề,” cô nói.
“Nhưng ngoài ra, các nhà sản xuất cần phải làm việc để đảm bảo rằng hệ thống AI của họ là công bằng và đại diện, và một phần của động lực đó sẽ đến từ các nhà lập pháp và quy định chặt chẽ hơn về sự công bằng trong trí tuệ nhân tạo.”
Bạn có thể đọc bài nghiên cứu tại đây.
