
Quyền được xử lý đúng đắn đã được khắc vào Hiến pháp Hoa Kỳ bằng một cây bút. Một báo cáo mới từ các nhà nghiên cứu hàng đầu trong lĩnh vực trí tuệ nhân tạo cảnh báo rằng nó hiện đang bị đe dọa bởi mã máy tính.
Các cơ quan công cộng có trách nhiệm trong lĩnh vực như tư pháp hình sự, y tế và phúc lợi ngày càng sử dụng hệ thống điểm số và phần mềm để điều hướng hoặc đưa ra quyết định về các sự kiện quan trọng trong cuộc sống như cấp bảo lãnh, phán quyết, thực thi và ưu tiên dịch vụ. Báo cáo từ AI Now, một viện nghiên cứu tại Đại học New York (NYU) nghiên cứu về các tác động xã hội của trí tuệ nhân tạo, cho biết quá nhiều trong những hệ thống đó là không rõ ràng đối với những người dân mà chúng giữ quyền lực.
Báo cáo AI Now kêu gọi các cơ quan tránh sử dụng những hệ thống mà nó gọi là “hộp đen” không rõ ràng với sự kiểm tra từ bên ngoài. Kate Crawford, một nhà nghiên cứu tại Microsoft và là đồng sáng lập AI Now, nói rằng người dân nên có quyền biết cách các hệ thống đang đưa ra quyết định về họ hoạt động như thế nào và đã được kiểm tra hoặc xác nhận như thế nào. Những hệ thống này dự kiến sẽ trở nên phức tạp hơn khi các công nghệ như học máy được sử dụng rộng rãi hơn bởi các công ty công nghệ.
“Chúng ta nên có các biện pháp bảo vệ tương đương về quy trình đúng đắn cho quyết định thuật toán như quyết định của con người,” Crawford nói. Cô ấy nói rằng có thể có khả năng tiết lộ thông tin về hệ thống và hiệu suất của chúng mà không tiết lộ mã nguồn, điều này đôi khi là tài sản trí tuệ được bảo vệ.
Chính phủ ngày càng phụ thuộc vào thuật toán và phần mềm để đưa ra quyết định và ưu tiên. Đôi khi, như trong trường hợp đặt bảo lãnh, nó có thể làm cho chính phủ trở nên công bằng hơn. Nhưng các thuật toán khác đã được phát hiện có thể có độ chệch. ProPublica báo cáo vào năm ngoái rằng một hệ thống điểm sử dụng trong phán quyết và bảo lãnh của nhiều tiểu bang có độ chệch đối với người da đen.
Dù ảnh hưởng cuối cùng là gì, người dân đang vất vả để truy cập thông tin về các thuật toán có ảnh hưởng đến cuộc sống của họ. Vào tháng 6, Tòa án Tối cao từ chối xem xét quyết định từ tòa án cao nhất Wisconsin từ chối yêu cầu của bị cáo để biết về cách hoạt động của một công cụ có tên là COMPAS được sử dụng để đặt hình phạt hình sự của mình. Một dự án của các học giả pháp lý đã sử dụng luật ghi âm mở để tìm kiếm thông tin về các thuật toán và hệ thống điểm sử dụng trong tư pháp hình sự và phúc lợi ở 23 tiểu bang trở lại nhiều nơi trống rỗng. Trong một số trường hợp, chính phủ đã ký thỏa thuận với các nhà cung cấp thương mại hạn chế việc tiết lộ bất kỳ thông tin nào về một hệ thống và cách nó đang được sử dụng một cách chính xác.
Cuộc kêu gọi của AI Now để xem xét lại việc chính phủ sử dụng thuật toán là một trong 10 đề xuất trong báo cáo 37 trang, nói về các nghiên cứu gần đây về hậu quả xã hội của phân tích dữ liệu tiên tiến trong các lĩnh vực như thị trường lao động, bất bình đẳng kinh tế xã hội và quyền riêng tư.
Nhóm cũng đề xuất rằng các công ty nên làm việc trên các công cụ và quy trình để xác định độ chệch trong dữ liệu đào tạo, đã được chỉ ra tạo ra phần mềm có xu hướng không tốt. Và báo cáo kêu gọi nghiên cứu và lập chính sách để đảm bảo việc sử dụng hệ thống tự động trong tuyển dụng không phân biệt đối xử đối với cá nhân hoặc nhóm. Goldman Sachs và Unilever đã sử dụng công nghệ từ startup HireVue, phân tích biểu hiện khuôn mặt và giọng nói của ứng viên để tư vấn cho người quản lý tuyển dụng. Công ty khởi nghiệp cho biết công nghệ của họ có thể công bằng hơn con người; Crawford nói rằng công nghệ như vậy nên được kiểm tra cẩn thận, với kết quả được công bố.
Nhưng những thay đổi về cách chính phủ sử dụng thuật toán để hình thành cuộc sống của công dân có thể sẽ chậm chạp. Ellen Goodman, giáo sư luật tại Rutgers đã nghiên cứu về chủ đề này, nói rằng nhiều thành phố và cơ quan bang thiếu chuyên môn cần thiết để thiết kế hệ thống của họ, hoặc phân tích và giải thích một cách đúng đắn những hệ thống được đưa vào từ bên ngoài.

Báo cáo AI Now xuất hiện giữa các lời kêu gọi khác để có một cách tiếp cận cân nhắc hơn trong việc sử dụng thuật toán trong đời sống công dân.
Vào Chủ nhật, chính phủ Anh đã phát hành một đánh giá nghiên cứu về cách phát triển ngành công nghiệp trí tuệ nhân tạo của quốc gia. Nó bao gồm đề xuất rằng cơ quan quản lý dữ liệu của Anh phát triển một khung nhìn để giải thích quyết định của hệ thống trí tuệ nhân tạo.
Vào thứ Hai, Hội đồng Thành phố New York thảo luận về một dự luật yêu cầu các cơ quan thành phố phải công bố mã nguồn của thuật toán được sử dụng để nhắm đến cá nhân với các dịch vụ, hình phạt hoặc nguồn lực cảnh sát.
Vào thứ Ba, một nhóm làm việc của Ủy ban Châu Âu về bảo vệ dữ liệu phát hành hướng dẫn dự thảo về quyết định tự động, bao gồm quyền của người dân được đối mặt với quyết định như vậy. Báo cáo của nhóm cảnh báo rằng “quyết định tự động có thể đặt ra những rủi ro lớn đối với quyền tự do và quyền lợi cá nhân cần có những biện pháp bảo vệ thích hợp.” Hướng dẫn của họ sẽ được tích hợp vào một luật bảo vệ dữ liệu mới toàn diện dự kiến sẽ có hiệu lực vào năm 2018, được biết đến với tên gọi là GDPR.
Có vẻ không có khả năng rằng chính phủ liên bang Mỹ sẽ tham gia vào những nỗ lực để đối mặt với những lo ngại về tác động và sử dụng thuật toán và trí tuệ nhân tạo trong đời sống công dân.
Năm 2016, chính phủ Obama tổ chức một loạt các hội thảo trên khắp đất nước về lợi ích và rủi ro của trí tuệ nhân tạo. AI Now đồng tổ chức một trong số đó với Văn phòng Khoa học và Công nghệ, và Hội đồng Kinh tế của Nhà Trắng. Hiện tại, không có tổ chức nào có vẻ quan tâm đến chủ đề này. OSTP hiện chỉ còn là một phần nhỏ so với số nhân viên dưới thời chính phủ Obama. “Chính sách trí tuệ nhân tạo không nằm ở đỉnh ưu tiên của Nhà Trắng hiện nay,” Crawford nói.
