EU gần kề việc cấm dự đoán tội phạm và nhận diện khuôn mặt sau cuộc bỏ phiếu về Đạo luật AI
EU đang tiến gần hơn đến việc cấm lịch sử về dự đoán tội phạm và nhận diện khuôn mặt.
Tại cuộc bỏ phiếu quan trọng hôm nay về Đạo luật AI, hai ủy ban của các nghị sĩ châu Âu đã ủng hộ mạnh mẽ các quy tắc mới về trí tuệ nhân tạo. Bản văn bản hiện di chuyển đến cuộc bỏ phiếu của toàn bộ Quốc hội châu Âu vào tháng 6. Sau khi được phê chuẩn, quy định sẽ trở thành luật trí tuệ nhân tạo toàn cầu đầu tiên.
Tại cuộc bỏ phiếu vào ngày thứ Năm, các nghị sĩ châu Âu đã phê chuẩn một phiên bản củng cố của quy tắc. Đạo luật bây giờ cấm dự đoán tội phạm và nhận diện khuôn mặt trong không gian công cộng.
Các sửa đổi cũng giới thiệu các hạn chế mới về mô hình sinh ra, như ChatGPT, và nhận diện cảm xúc.
Những người bảo vệ tự do dân sự đã hoan nghênh bước tiến này. Fair Trials, một tổ chức giám sát tư pháp hình sự, mô tả cuộc bỏ phiếu là “một kết quả lịch sử” cho nhân quyền.
“Những hệ thống này tự động hóa sự bất công, làm trầm trọng và củng cố nạn phân biệt chủng tộc và phân biệt đối xử trong lực lượng cảnh sát và hệ thống tư pháp hình sự, cũng như làm tăng độ chệch hệ thống trong xã hội,”, nói ông Griff Ferris, Quan chức Pháp lý và Chính sách Cao cấp tại Fair Trials.
“Quốc hội châu Âu đã thực hiện một bước quan trọng khi bỏ phiếu để cấm những hệ thống này, và chúng tôi kêu gọi họ hoàn tất công việc trong cuộc bỏ phiếu cuối cùng vào tháng 6.”
Ngành công nghiệp phản ứng
Trong lĩnh vực công nghệ, phản ứng đối với cuộc bỏ phiếu là đa dạng. Liên minh Phần mềm (BSA), một nhóm lợi ích đại diện cho các công ty như Microsoft và IBM, đã kêu gọi để có thêm sự làm rõ.
“Ngành công nghiệp phần mềm doanh nghiệp vẫn lo ngại về việc phân công trách nhiệm trong chuỗi giá trị trí tuệ nhân tạo (AI) và cách xử lý các mô hình cơ bản,”, nói ông Matteo Quattrocchi, Giám đốc Chính sách của BSA.
“Quy tắc hiện tại không được tùy chỉnh để phản ánh vai trò của các công ty trong hệ sinh thái AI, hoặc sự khác biệt về mô hình kinh doanh và AI sử dụng, và có thể sẽ không giải quyết một số lo ngại về ứng dụng cụ thể của một số mô hình cơ bản.”
Trong khi đó, các chuyên gia về quyền riêng tư có thể mong đợi có thêm nhu cầu cho dịch vụ của họ. Isabelle Roccia, Giám đốc Quản lý cho châu Âu tại Hiệp hội Chuyên gia Quyền riêng tư Quốc tế, dự kiến sẽ có một tác động đáng kể.
“Các tổ chức sẽ phải ngày càng phụ thuộc vào đội ngũ quản lý quyền riêng tư của họ để triển khai AI vì chuyên môn về quản lý dữ liệu của họ có thể chuyển giao một cách rất linh hoạt và cực kỳ liên quan đến quản lý AI,”, cô nói.
