
Vào đầu tháng 5, một thông cáo từ Đại học Harrisburg cho biết hai giáo sư và một sinh viên nghiên cứu đã phát triển một chương trình nhận diện khuôn mặt có thể dự đoán liệu ai đó sẽ trở thành tội phạm. Thông cáo nói rằng bài báo sẽ được xuất bản trong một tập hợp của Springer Nature, một nhà xuất bản học thuật lớn.
Với “độ chính xác 80% và không có độ chệch chủng tộc,” bài báo, Mô hình Mạng nơ-ron Sâu Dự đoán Tội phạm Bằng Xử lý Ảnh, tuyên bố thuật toán của mình có thể dự đoán “nếu ai đó là tội phạm chỉ dựa trên một bức ảnh của khuôn mặt họ.” Thông cáo sau đó đã bị xóa khỏi trang web của trường đại học.
Thứ Ba, hơn 1.000 nhà nghiên cứu máy học, nhà xã hội học, nhà sử học và nhà đạo đức đã phát đi một lá thư công khai lên án bài báo, và Springer Nature xác nhận trên Twitter rằng họ sẽ không xuất bản nghiên cứu này.
Tuy nghiên cứu viên cho rằng vấn đề không chỉ dừng lại ở đó. Những người ký tên trong lá thư, tổng hợp gọi chính họ là Liên minh Công nghệ ChCritical (CCT), nói rằng những khẳng định của bài báo 'dựa trên các giả định, nghiên cứu và phương pháp khoa học không đúng đã bị phủ nhận suốt nhiều năm.' Lá thư lý luận rằng không thể dự đoán tội phạm mà không có độ chệch chủng tộc, 'bởi vì khái niệm 'tội phạm' chính nó đã có độ chệch chủng tộc.'
Tiến bộ trong khoa học dữ liệu và máy học đã dẫn đến nhiều thuật toán trong những năm gần đây có vẻ như dự đoán tội ác hoặc tội phạm. Nhưng nếu dữ liệu được sử dụng để xây dựng những thuật toán đó có độ chệch, những dự đoán của thuật toán cũng sẽ có độ chệch. Do tính chệch chủng tộc của cảnh sát ở Hoa Kỳ, lá thư lý luận rằng bất kỳ thuật toán dự đoán tội phạm nào cũng chỉ sẽ sao chép những độ chệch đã được phản ánh trong hệ thống tư pháp hình sự.
Ánh xạ những độ chệch này lên phân tích khuôn mặt làm nhớ đến 'khoa học về chủng tộc' ghê tởm của các thế kỷ trước, đã tuyên bố sử dụng công nghệ để nhận biết sự khác biệt giữa các chủng tộc - trong các đo lường như kích thước đầu hoặc chiều rộng mũi - làm chứng minh cho trí tuệ bẩm sinh, đức tính, hoặc tội phạm của họ.
Khoa học về chủng tộc đã bị phủ nhận từ lâu, nhưng những bài báo sử dụng máy học để 'dự đoán' các đặc tính bẩm sinh hoặc đưa ra chẩn đoán đang quay trở lại một cách tinh subtile, nhưng đáng lo ngại.
Năm 2016, các nhà nghiên cứu từ Đại học Shanghai Jiao Tong tuyên bố thuật toán của họ có thể dự đoán tội phạm bằng cách sử dụng phân tích khuôn mặt. Các kỹ sư từ Stanford và Google phản đối những khẳng định của bài báo, gọi phương pháp này là một 'nhan sắc học' mới, một 'khoa học về chủng tộc' đã bị phủ nhận phổ biến giữa những người ủng hộ 'chọn lọc di truyền,' mà suy luận các đặc tính tâm lý từ hình dạng đầu người.
Năm 2017, một cặp nhà nghiên cứu Stanford tuyên bố trí tuệ nhân tạo của họ có thể nói liệu ai đó là đồng tính hay không dựa trên khuôn mặt của họ. Các tổ chức LGBTQ lên án nghiên cứu, chú ý đến cách ý niệm nhận biết tình dục tự động có thể gây hại trong những quốc gia hình sự hóa đồng tính. Năm ngoái, các nhà nghiên cứu tại Đại học Keele ở Anh tuyên bố thuật toán của họ được đào tạo trên video YouTube về trẻ em có thể dự đoán tự kỷ. Đầu năm nay, một bài báo trong Tạp chí Dữ liệu Lớn không chỉ cố gắng 'suy luận đặc tính tính cách từ hình ảnh khuôn mặt,' mà còn trích dẫn Cesare Lombroso, nhà khoa học thế kỷ 19 người ủng hộ quan điểm rằng tội phạm được thừa hưởng.
Mỗi bài báo đó đều gây ra một phản đối mạnh mẽ, tuy nhiên không một cái dẫn đến sản phẩm mới hoặc công cụ y tế. Tuy nhiên, tác giả của bài báo Harrisburg khẳng định rằng thuật toán của họ được thiết kế đặc biệt để sử dụng bởi lực lượng chức năng.

'Tội phạm là một trong những vấn đề nổi bật nhất trong xã hội hiện đại,' nói Jonathan W. Korn, một sinh viên nghiên cứu tiến sĩ tại Harrisburg và cựu sĩ quan cảnh sát New York, trong một trích từ thông cáo bị xóa. 'Việc phát triển máy móc có khả năng thực hiện các nhiệm vụ như nhận biết tội phạm của [một] người từ hình ảnh khuôn mặt của họ sẽ mang lại một lợi thế lớn cho các cơ quan chức năng và các cơ quan tình báo khác để ngăn chặn tội phạm xảy ra trong khu vực được chỉ định của họ.'
Korn không phản hồi sau khi được yêu cầu bình luận. Nathaniel Ashby, một trong các tác giả đồng tác giả của bài báo, từ chối bình luận.
Springer Nature không phản hồi sau khi được yêu cầu bình luận trước khi bài viết này được xuất bản lần đầu. Trong một tuyên bố sau khi bài viết được đăng lần đầu, Springer nói, 'Chúng tôi nhận thức về lo ngại liên quan đến bài báo này và muốn làm sáng tỏ rằng vào bất kỳ thời điểm nào, nó đều không được chấp nhận để xuất bản. Nó đã được gửi đến một hội nghị sắp tới mà Springer sẽ xuất bản các thư tuyên truyền trong bộ sưu tập Giao dịch về Khoa học Máy tính và Trí tuệ Máy tính và đã trải qua một quá trình đánh giá đồng nghiệm kỹ lưỡng. Quyết định từ biên tập viên của bộ sưu tập để từ chối bài báo cuối cùng đã được đưa ra vào Thứ Ba, ngày 16 tháng 6 và được chính thức thông báo cho tác giả vào Thứ Hai, ngày 22 tháng 6. Chi tiết về quá trình đánh giá và kết luận được giữ bí mật giữa biên tập viên, những người đánh giá đồng nghiệm và tác giả.'
Nhóm tự do công dân đã lâu đã cảnh báo về việc sử dụng nhận diện khuôn mặt trong công tác thi hành pháp luật. Phần mềm này có độ chính xác thấp hơn đối với những người có màu da đen hơn so với những người có màu da sáng, theo một báo cáo từ các nhà nghiên cứu trí tuệ nhân tạo Timnit Gebru và Joy Buolamwini, cả hai đều đã ký tên trong lá thư CCT.
Năm 2018, Hội đồng Bảo vệ Quyền Công dân Mỹ (ACLU) phát hiện rằng sản phẩm nhận diện khuôn mặt của Amazon, Rekognition, đã nhận diện sai thành viên Quốc hội là tội phạm, thường mắc lỗi nhiều lần hơn đối với các quan chức da đen hơn so với các quan chức da trắng. Amazon gần đây đã công bố một đình chỉ bán sản phẩm này cho cảnh sát trong một năm.
Bài báo của Harrisburg dường như chưa từng được đăng công khai, nhưng việc xuất bản nghiên cứu đầy rủi ro có thể gây nguy hiểm. Năm ngoái, nhà nghiên cứu an ninh đến từ Berlin, Adam Harvey, phát hiện rằng bộ dữ liệu nhận diện khuôn mặt từ các trường đại học ở Mỹ được sử dụng bởi các công ty giám sát liên kết với chính phủ Trung Quốc. Bởi vì nghiên cứu trí tuệ nhân tạo được tạo ra cho một mục đích có thể được sử dụng cho mục đích khác, các bài báo đòi hỏi sự kiểm tra đạo đức mạnh mẽ ngay cả khi chúng không trực tiếp dẫn đến sản phẩm hoặc phương pháp mới.
'Như máy tính hoặc động cơ đốt trong, trí tuệ nhân tạo là một công nghệ đa năng có thể được sử dụng để tự động hóa rất nhiều công việc, bao gồm cả những công việc không nên thực hiện từ đầu,' đọc trong lá thư.
Cập nhật, 24-6-20, 1:30pm ET: Bài viết này đã được cập nhật để bao gồm một tuyên bố từ Springer Nature.
Những câu chuyện tuyệt vời khác từ Mytour
- The Last of Us Part II và hành trình đầy khủng hoảng đến khi phát hành
- Cựu giám đốc điều hành eBay được cáo buộc tạo khó khăn cho những người phê phán
- Công nghệ và đồ chơi tình dục tốt nhất cho mọi người
- Trí tuệ nhân tạo, thực tế ảo và tương lai có phần phỏng đoán của FBI dựa trên công nghệ
- Nhóm Facebook đang phá hủy Hoa Kỳ
- 👁 Khái niệm về trí tuệ, trong khi đó: Nhận tin tức AI mới nhất
- ✨ Tối ưu hóa cuộc sống gia đình của bạn với những lựa chọn tốt nhất từ đội ngũ Gear của chúng tôi, từ robot hút bụi đến đệm giá rẻ đến loa thông minh
