Dự Đoán Tội Phạm Góp Phần Giam Giữ Xã Hội Trong Quá Khứ

Một trong những ví dụ đáng chú ý nhất về việc sử dụng công nghệ dự đoán là câu chuyện của Robert McDaniel, được mô tả bởi nhà báo Matt Stroud trên The Verge vào tháng 5 năm 2021. McDaniel là cư dân của Austin, một khu vực ở Chicago mà chỉ riêng năm 2020 đã xảy ra 72 vụ giết người, gần 10 phần trăm tổng số vụ án của thành phố. Mặc dù McDaniel không có hồ sơ về bạo lực (anh ta chỉ bị bắt vì bán cần sa và chơi xúc xác), một chương trình dự đoán tội phạm của Sở Cảnh Sát Chicago đã quyết định từ năm 2013 rằng anh ta là một “đối tượng nghi ngờ” - chính xác hơn là như vậy. Trong bộ phim tội phạm của CBS từ 2011-2016, “con máy”, được tạo ra bởi nhân vật chính của bộ phim, chỉ có thể xác định rằng một người sẽ là nạn nhân hoặc thủ phạm của một vụ án bạo lực, nhưng không biết mặt nào. Tương tự, thuật toán được sử dụng bởi CPD cho biết rằng McDaniel có khả năng hơn 99,9 phần trăm dân số Chicago tham gia một vụ bắn, mặc dù không biết anh ta sẽ ở phía nào của vũ khí.

Trang bị với “kiến thức” này, cảnh sát Chicago đã đưa McDaniel vào Danh sách Đối tượng Chiến lược của họ, sau đó được biết đến với cái tên “danh sách nhiệt”, và theo dõi chặt chẽ anh ta, mặc dù anh ta không bị nghi ngờ liên quan đến bất kỳ tội phạm cụ thể nào. Bởi vì một số theo dõi đó là công khai, nó gợi ý với người khác trong khu phố của anh ta rằng anh ta có thể có một loại kết nối với cảnh sát - rằng anh ta có thể là một người cung cấp thông tin, một danh tiếng rất gây hại.
Không ngạc nhiên, McDaniel đã bị bắn hai lần kể từ khi anh ta được xác định lần đầu bởi CPD: lần đầu vào năm 2017, có lẽ một phần do sự nổi tiếng từ việc anh xuất hiện trong bộ phim tài liệu người Đức, Pre-Crime, năm đó mà anh hy vọng sẽ giúp anh tạo sự rõ ràng cho tên tuổi của mình; và gần đây hơn vào năm 2020. Anh nói với The Verge rằng cả hai vụ bắn đều do sự theo dõi của CPD, và nghi ngờ kết quả từ việc anh làm việc với cơ quan thực thi pháp luật. “Theo quan điểm của McDaniel”, Stroud viết, “danh sách nhiệt đã gây tổn thương mà những người tạo ra nó hy vọng tránh được: Nó đã dự đoán một vụ bắn mà nếu không dự đoán thì sẽ không xảy ra.”
Điều đó cũng đúng, nhưng cũng có một mô hình sâu hơn để quan sát ở đây. Bởi vì dữ liệu của cảnh sát từ quá khứ, khu phố của McDaniel, và do đó là những người trong đó, đã bị gán nhãn là bạo lực. Chương trình sau đó nói rằng tương lai sẽ giống như vậy—nghĩa là, không có tương lai, mà chỉ là sự lặp lại của quá khứ, gần như giống nhau. Điều này không chỉ là một lời tiên tri tự chứng thực, mặc dù nó chắc chắn là như vậy: Đây là một hệ thống được thiết kế để mang quá khứ vào tương lai và từ đó ngăn chặn thế giới thay đổi.
Chương trình xác định McDaniel dường như đã được phát triển đặc biệt cho CPD bởi một kỹ sư tại Viện Công nghệ Illinois, theo báo cáo trước đó của Stroud. Chương trình CPD xác định khoảng 400 cá nhân có khả năng cao tham gia vào tội phạm bạo lực và đưa họ vào danh sách nhiệt của mình. Chương trình này bắt đầu từ năm 2012 và đã bị ngừng vào năm 2019, như tiết lộ trong một báo cáo của cơ quan giám sát của chính quyền thành phố Chicago trong năm đó, nêu ra các lo ngại về nó, bao gồm độ chính xác của kết quả và chính sách về chia sẻ dữ liệu với các cơ quan khác. Thuật toán CPD tùy chỉnh được cho là tập trung vào cá nhân, và nó có thể tương tự như một loạt các chương trình được sử dụng bởi cảnh sát và quân đội mà công chúng hiếm khi biết đến. Ví dụ, vào năm 2018, nhà báo Ali Winston từ The Verge báo cáo rằng công ty giám sát Palantir, được thành lập bởi Peter Thiel, đã thử nghiệm một công nghệ tương tự một cách bí mật ở New Orleans từ năm 2012 mà không thông báo cho nhiều quan chức thành phố.
Người dân biết đến nhiều hơn là các chương trình như CompStat và PredPol, khác biệt từ danh sách nhiệt của CPD ở chỗ hướng đến khu vực địa lý chứ không phải là cá nhân. CompStat được phát triển bởi Sở Cảnh Sát New York City như một phương pháp căn cứ dữ liệu cho việc làm cảnh sát, nơi các cảnh sát thu thập số liệu tội phạm theo quận và sau đó sử dụng dữ liệu đó để hướng dẫn phân bổ cảnh sát. Có sự biến đổi rộng lớn trong truyền thuyết về CompStat: Nó là nguyên nhân giảm tội phạm ở New York, hoặc nó không có tác động ý nghĩa đến lượng tội phạm và chỉ đơn giản đóng góp vào việc làm cảnh sát phân biệt chủng tộc hơn, phụ thuộc vào ai bạn hỏi.
Trong khi đó, PredPol có tính dự đoán cao hơn. (Phần mềm đằng sau nền tảng phổ biến này có nguồn gốc từ việc dự đoán số lượng thương vong trên chiến trường ở Iraq.) Tuy nhiên, nó hoạt động dựa trên giả định cơ bản rằng bằng cách sử dụng dữ liệu tội phạm lịch sử - đặc biệt là loại tội phạm, vị trí và thời gian phạm tội - thuật toán độc quyền có thể dự đoán nơi tội phạm tương lai có khả năng xảy ra. Trong một phân tích của một loạt dữ liệu PredPol để lại trên mạng mở, Gizmodo phát hiện rằng hệ thống này “liên tục nhắm vào” các khu vực chủ yếu gồm người da màu và người nghèo.
Tất cả các hệ thống cảnh sát này hoạt động dựa trên giả định rằng quá khứ quyết định tương lai. Trong cuốn sách 'Discriminating Data: Correlation, Neighborhoods, and the New Politics of Recognition', nhà nghiên cứu truyền thông số Wendy Hui Kyong Chun lập luận rằng các phương pháp phổ biến nhất được sử dụng bởi các công nghệ như PredPol và danh sách nhiệt của Chicago để dự đoán không làm gì cả. Thay vì dự đoán điều gì có thể xảy ra từ hàng loạt các khả năng không thể biết trước mà ý tưởng về tương lai phụ thuộc, học máy và các phương pháp khác dựa trên trí tuệ nhân tạo về tương quan thống kê “hạn chế tương lai thành quá khứ.” Nói cách khác, những hệ thống này ngăn chặn tương lai để “dự đoán” nó - chúng đảm bảo rằng tương lai sẽ giống như quá khứ.
“Nếu quá khứ được ghi lại và được chăm sóc một cách kỹ lưỡng mang tính phân biệt chủng tộc và giới tính,” Chun viết, “những thuật toán và mô hình này chỉ được xác nhận đúng nếu chúng đưa ra những dự đoán mang tính phân biệt chủng tộc và giới tính.” Điều này một phần là mô tả về vấn đề rác rưởi trong tất cả các phân tích dữ liệu, nhưng nó còn nhiều hơn thế: Một cách trớ trêu, công nghệ được cho là “không thiên vị” bán cho chúng ta chỉ “hoạt động” đúng khi nó nói với chúng ta rằng điều gì có tính chất tùy thuộc vào lịch sử thực sự là không thể tránh và không thể thay đổi. Thay vì giúp chúng ta quản lý các vấn đề xã hội như phân biệt chủng tộc khi chúng ta tiến lên, như trường hợp McDaniel cho thấy ở quy mô nhỏ, những hệ thống này đòi hỏi xã hội không thay đổi, những vấn đề mà chúng ta nên cố gắng sửa chữa thay vì đó sẽ phải giữ nguyên như chúng đã là.
“Một quan sát rõ ràng hơn là các công cụ cảnh báo tội phạm hiếm khi nào (với ngoại lệ có thể là dự án chế ngự “Vùng Nguy Cơ Tội Phạm Trắng Cổ” giả tưởng) tập trung vào việc trộm lương hoặc các loại tội phạm văn phòng trắng khác, mặc dù số tiền của những loại tội phạm đó vượt xa tội phạm tài sản về mệnh giá theo hàng loạt lần. Lỗ hổng này tồn tại vì tội phạm tồn tại trong trí tưởng tượng phổ biến. Ví dụ, các báo cáo tin tức gần đây đã đưa tin về một “đợt tăng tội phạm” đánh cắp hàng hóa tại các cửa hàng cao cấp. Tuy nhiên, tháng Hai vừa qua, Amazon đã đồng ý trả cho cơ quan quản lý một khoản tiền lên tới 61,7 triệu đô la, số tiền FTC nói rằng công ty đã lấy cắp từ các tài xế trong khoảng hai năm rưỡi. Câu chuyện đó chỉ nhận được một phần nhỏ sự chú ý, và ngoại trừ việc phải trả phạt, sẽ không có các điều tra bổ sung.
Quả cầu tưởng đoán và ngăn chặn tội phạm trong tương lai dựa trên một quan niệm cố định về tội phạm, nơi tội phạm xảy ra, và cách thức xử lý chúng (nếu có). Những tham số này hoàn toàn phụ thuộc vào cấu trúc quyền lực được ủy quyền để đặt ra chúng - và rất nhiều khi mục tiêu rõ ràng của những cấu trúc đó là duy trì các hệ thống phân cấp chủng tộc và giàu có hiện có. Đây chính là cùng một bộ logic giam cầm cho phép đưa trẻ em vào cơ sở dữ liệu băng nhóm hoặc phát triển một công cụ tính toán để dự đoán rằng trẻ em sẽ trở thành tội phạm. Quá trình dự đoán cuộc sống của trẻ em là về việc củng cố hiện thực hiện tại thay vì thay đổi chúng. Việc nhập vào hệ thống xếp hạng giam cầm cho trẻ em là hành động bạo lực, nhưng như trong trường hợp McDaniel, nó cũng gần như đảm bảo rằng hệ thống nhìn nhận họ như những kẻ có tiềm năng trở thành tội phạm sẽ tiếp tục áp đặt bạo lực lên họ trong suốt cuộc đời.
Một tuyên bố rộng rãi và thường được lặp đi lặp lại về các thuật toán và “trí tuệ nhân tạo” là rằng, nếu có đủ dữ liệu trong một khoảng thời gian đủ lâu, thuật toán không chỉ có thể đáp ứng điều bạn mong muốn, mà nó còn có thể làm điều đó trước khi bạn thực sự mong muốn - nghĩa là, thuật toán đó hiểu bạn hơn cả bạn hiểu chính mình. Chúng ta thấy tuyên bố này ở bất kỳ nơi nào trí tuệ nhân tạo hoạt động, dù đó là một playlist Spotify, danh sách mong muốn trên Amazon của bạn, hoặc lựa chọn phim trên Netflix của bạn. Vậy nên, trong trường hợp các thuật toán tuyên bố biết bạn sẽ phạm tội trước khi bạn làm, có lẽ đáng đặt câu hỏi: Xã hội có tính chất phân biệt chủng tộc và giam cầm muốn điều gì? Không thể phủ nhận, nhiều người trong xã hội như vậy - một xã hội giam cầm nhiều hơn, nhiều người trong đó là người Da Đen và người da màu, hơn bất kỳ nơi nào khác trên hành tinh này - mong muốn duy trì trạng thái hiện có.
Trong trường hợp của tất cả những thuật toán này, điều họ thường cung cấp không phải là một trải nghiệm mới, mà là thêm những gì bạn đã trải qua trong quá khứ. Chúng không dự đoán mong muốn của bạn nhiều như chúng giả định rằng mong muốn trong quá khứ và trong tương lai chủ yếu tương tự nhau. Trong trường hợp của một danh sách nhạc, rủi ro không lớn. Trong trường hợp dự đoán khả năng ai đó liên quan đến một vụ bắn, hoặc giam giữ những người trong lồng sắt - không hẳn như vậy. Nhưng cho đến khi có một sự thay đổi cấp tiến trong cách chúng ta nghĩ về “tội phạm,” cảnh sát, công nghệ và cách chúng giao cắt, tương lai của việc dự đoán tội phạm sẽ tiếp tục hứa hẹn thêm nhiều điều giống như vậy.
