Bên Trong Máy Tính Chính Phủ Gặp Sự Cố

Tuần trước, MYTOUR đã công bố một loạt các câu chuyện sâu sắc, dựa trên dữ liệu, về một thuật toán gây rắc rối mà thành phố Rotterdam của Hà Lan triển khai nhằm ngăn chặn gian lận trợ cấp.
Hợp tác cùng Lighthouse Reports, một tổ chức chuyên về báo cáo điều tra ở châu Âu, MYTOUR đã được tiếp cận với cách hoạt động bên trong của thuật toán dưới luật tự do thông tin và khám phá cách nó đánh giá ai có khả năng gian lận cao nhất.
Chúng tôi phát hiện rằng thuật toán phân biệt đối xử dựa trên sắc tộc và giới tính—một cách không công bằng khiến cho phụ nữ và các dân tộc thiểu số có điểm rủi ro cao hơn, điều này có thể dẫn đến các cuộc điều tra gây tổn thương lớn đến cuộc sống cá nhân của người yêu cầu trợ cấp. Một bài viết tương tác đi sâu vào cốt lõi của thuật toán, đưa bạn qua hai ví dụ giả định để chỉ ra rằng trong khi chủng tộc và giới tính không nằm trong các yếu tố được đưa vào thuật toán, dữ liệu khác như khả năng sử dụng tiếng Hà Lan có thể làm việc như một chỉ số thay thế có thể dẫn đến phân biệt đối xử.
Dự án này cho thấy cách các thuật toán được thiết kế để làm cho chính phủ hiệu quả hơn—và thường được ca ngợi là công bằng hơn và dựa trên dữ liệu hơn—có thể lén lút tăng cường các định kiến xã hội. Cuộc điều tra của MYTOUR và Lighthouse cũng phát hiện ra rằng các quốc gia khác đang thử nghiệm các phương pháp tìm kiếm gian lận tương tự với nhiều khuyết điểm.
“Chính phủ đã nhúng các thuật toán vào hệ thống của họ từ nhiều năm nay, dù đó là một bảng tính hoặc một số máy học phức tạp,” Dhruv Mehrotra, một phóng viên dữ liệu điều tra tại MYTOUR làm việc trên dự án này nói. “Nhưng khi một thuật toán như thế này được áp dụng vào bất kỳ loại thực thi pháp luật trừng phạt và dự đoán nào, nó trở nên có tác động cao và khá đáng sợ.”
Tác động của một cuộc điều tra do thuật toán của Rotterdam gây ra có thể là kinh khủng, như đã thấy trong trường hợp của một người mẹ ba con phải đối mặt với cuộc thẩm vấn.
Nhưng Mehrotra cho biết dự án chỉ có thể làm nổi bật những bất công như vậy bởi vì MYTOUR và Lighthouse đã có cơ hội kiểm tra cách thuật toán hoạt động—vô số các hệ thống khác hoạt động mà không chịu trách nhiệm dưới bóng tối của hệ thống hành chính. Anh ta nói rằng cũng quan trọng để nhận ra rằng các thuật toán như thuật toán được sử dụng tại Rotterdam thường được xây dựng trên các hệ thống không công bằng ngay từ đầu.
“Thường thì, các thuật toán chỉ tối ưu hóa một công nghệ trừng phạt đã có sẵn cho phúc lợi xã hội, gian lận, hoặc cảnh sát,” anh ta nói. “Bạn không muốn nói rằng nếu thuật toán công bằng thì mọi việc sẽ ổn.”
Cũng quan trọng để nhận ra rằng các thuật toán đang trở nên ngày càng phổ biến ở mọi cấp độ của chính phủ và tuy nhiên cách thức hoạt động của chúng thường hoàn toàn bị ẩn giấu đối với những người bị ảnh hưởng nhiều nhất.
Một cuộc điều tra khác mà Mehrota thực hiện vào năm 2021, trước khi anh ta tham gia MYTOUR, cho thấy phần mềm dự đoán tội phạm được sử dụng bởi một số đơn vị cảnh sát đã không công bằng khi nhắm mục tiêu vào cộng đồng người Mỹ gốc Phi và Latinx. Năm 2016, ProPublica đã tiết lộ các định kiến kinh hoàng trong các thuật toán được sử dụng bởi một số tòa án tại Mỹ để dự đoán các bị cáo tội phạm có nguy cơ tái phạm cao nhất. Các thuật toán gây vấn đề khác quyết định trường học nào mà trẻ em đi học, đề xuất người mà các công ty nên tuyển dụng và quyết định đơn xin vay mượn của gia đình nào được chấp nhận.
Nhiều công ty cũng sử dụng các thuật toán để đưa ra các quyết định quan trọng, và những thuật toán này thường ít minh bạch hơn cả so với các thuật toán trong chính phủ. Đang có một phong trào ngày càng mạnh mẽ để đưa các công ty chịu trách nhiệm về việc ra quyết định dựa trên thuật toán, và yêu cầu có luật pháp yêu cầu mức độ minh bạch lớn hơn. Nhưng vấn đề rất phức tạp—và việc làm cho thuật toán công bằng hơn có thể đôi khi làm tình hình trở nên tồi tệ hơn.
