Cuộc Chiến Về Việc Châu Âu Nên Cấm Các Ứng Dụng Trí Tuệ Nhân Tạo

Năm 2019, những người bảo vệ ở biên giới của Hy Lạp, Hungary và Latvia bắt đầu thử nghiệm một máy phát hiện nói dối được trang bị trí tuệ nhân tạo. Hệ thống này, được gọi là iBorderCtrl, phân tích các cử động khuôn mặt để cố gắng phát hiện dấu hiệu người đó nói dối với một nhân viên biên giới. Thử nghiệm được thúc đẩy bởi gần 5 triệu đô la Mỹ từ quỹ nghiên cứu Liên minh Châu Âu và gần 20 năm nghiên cứu tại Đại học Metropolitan Manchester, Vương quốc Anh.
Thử nghiệm đã gây tranh cãi. Các bộ dụng cụ như máy đo polygraph và các công nghệ khác được xây dựng để phát hiện nói dối từ những đặc điểm vật lý đã bị các nhà tâm lý học công bố không đáng tin cậy. Sớm, đã có báo cáo về những sai sót từ iBorderCtrl. Các bản tin truyền thông cho biết thuật toán dự đoán nói dối của nó không hoạt động và trang web của dự án đã thừa nhận rằng công nghệ này “có thể mang lại rủi ro cho quyền lợi cơ bản của con người”.
Tháng này, Silent Talker, một công ty phát triển công nghệ đứng sau iBorderCtrl, đã giải thể. Nhưng đó không phải là hồi kết. Luật sư, nhà hoạt động và những người làm chính trị đang đẩy mạnh cho một luật của Liên minh Châu Âu để quy định về trí tuệ nhân tạo, đồng thời cấm các hệ thống tuyên bố có thể phát hiện sự lừa dối của con người trong di cư—dựa trên iBorderCtrl làm ví dụ cho những gì có thể xảy ra xấu.
Một lệnh cấm việc sử dụng máy phát hiện nói dối trí tuệ nhân tạo tại biên giới là một trong hàng nghìn sửa đổi đang được xem xét bởi các quan chức đến từ các quốc gia thành viên Liên minh Châu Âu và các thành viên của Quốc hội Châu Âu. Bộ luật được thiết lập nhằm bảo vệ quyền cơ bản của công dân Liên minh Châu Âu, như quyền sống không bị phân biệt đối xử hoặc quyền xin azyl. Nó đặt nhãn một số trường hợp sử dụng trí tuệ nhân tạo là “rủi ro cao,” một số là “rủi ro thấp,” và cấm một số khác hoàn toàn. Những người lắ lobby để thay đổi Bộ luật về Trí tuệ Nhân tạo bao gồm các nhóm nhân quyền, các công đoàn và các công ty như Google và Microsoft, muốn Bộ luật tạo ra sự phân biệt giữa những người tạo ra hệ thống trí tuệ nhân tạo đa năng và những người triển khai chúng cho mục đích cụ thể.
Tháng trước, các nhóm đấu tranh bao gồm European Digital Rights và Platform for International Cooperation on Undocumented Migrants kêu gọi hành động cấm việc sử dụng máy đo polygraph trí tuệ nhân tạo đo lường những điều như chuyển động của mắt, giọng điệu, hoặc biểu cảm khuôn mặt tại biên giới. Statewatch, một tổ chức phi lợi nhuận về tự do công dân, phát hành một phân tích cảnh báo rằng Bộ luật về Trí tuệ Nhân tạo theo cách đã viết sẽ cho phép việc sử dụng các hệ thống như iBorderCtrl, gia tăng vào “hệ sinh thái trí tuệ nhân tạo biên giới được tài trợ công cộng” của châu Âu. Phân tích tính toán rằng trong hai thập kỷ qua, khoảng một nửa số 341 triệu euro (356 triệu đô la) được cấp cho việc sử dụng trí tuệ nhân tạo tại biên giới, như làm hồ sơ về những người nhập cư, đã đi đến các công ty tư nhân.
Việc sử dụng máy phát hiện nói dối trí tuệ nhân tạo tại biên giới hiệu quả tạo ra chính sách nhập cư mới thông qua công nghệ, theo lời của Petra Molnar, giám đốc điều hành của tổ chức phi lợi nhuận Refugee Law Lab, đặt nhãn cho mọi người như một đối tượng nghi ngờ. “Bạn phải chứng minh rằng bạn là một người tị nạn, và bạn được giả định là kẻ nói dối cho đến khi chứng minh ngược lại,” cô nói. “Hệ thống lôgic này chính là cơ sở của mọi thứ. Nó là cơ sở của máy phát hiện nói dối trí tuệ nhân tạo, và nó là cơ sở của thêm nhiều hệ thống giám sát và đẩy lui tại biên giới.”
Molnar, một luật sư nhập cư, nói rằng người ta thường tránh gặp mắt với các quan chức biên giới hoặc nhập cư vì lý do vô hại—như văn hóa, tôn giáo, hoặc chấn thương—nhưng việc này đôi khi lại được hiểu lầm như một dấu hiệu người đó đang giấu điều gì đó. Con người thường gặp khó khăn trong giao tiếp với những người có văn hóa khác hoặc nói chuyện với những người trải qua chấn thương, cô nói, vì vậy tại sao mọi người lại tin rằng một máy móc có thể làm tốt hơn?
Bản thảo đầu tiên của Bộ luật về Trí tuệ Nhân tạo được công bố vào tháng 4 năm 2021 liệt kê điểm tín dụng xã hội và việc sử dụng nhận diện khuôn mặt trực tuyến tại các nơi công cộng là các công nghệ sẽ bị cấm hoàn toàn. Nó đặt nhãn cho nhận diện cảm xúc và máy phát hiện nói dối trí tuệ nhân tạo cho biên giới hoặc thi hành pháp luật là rủi ro cao, có nghĩa là triển khai phải được liệt kê trên một đăng ký công khai. Molnar nói rằng điều đó không đi xa đủ, và công nghệ nên được thêm vào danh sách bị cấm.
Dragoș Tudorache, một trong hai người phát ngôn được bổ nhiệm bởi các thành viên của Quốc hội Châu Âu để dẫn dắt quá trình sửa đổi, nói rằng các nhà lập pháp đã nộp đơn sửa đổi trong tháng này, và ông kỳ vọng sẽ có phiếu bầu vào cuối năm 2022. Các người phát ngôn của Quốc hội Châu Âu vào tháng 4 đã đề xuất thêm việc cấm công nghệ dự đoán của cảnh sát vào danh sách các công nghệ bị cấm, nói rằng nó “vi phạm nguyên tắc vô tội nghiệp cũng như nhân phẩm con người,” nhưng không đề xuất thêm máy đo polygraph trí tuệ nhân tạo cho biên giới. Họ cũng đề xuất phân loại các hệ thống phân loại bệnh nhân trong chăm sóc sức khỏe hoặc quyết định liệu người ta có được bảo hiểm y tế hay bảo hiểm cuộc sống là rủi ro cao.
Trong khi Quốc hội Châu Âu tiếp tục với quá trình sửa đổi, Hội đồng Liên minh Châu Âu cũng sẽ xem xét các sửa đổi cho Bộ luật về Trí tuệ Nhân tạo. Ở đó, các quan chức từ các quốc gia bao gồm Hà Lan và Pháp đã đề xuất một loại ngoại lệ về an ninh quốc gia cho Bộ luật về Trí tuệ Nhân tạo, theo tài liệu được thu thập thông qua yêu cầu tự do thông tin của Trung tâm Luật Phi lợi nhuận Châu Âu.
Vanja Skoric, một giám đốc chương trình của tổ chức, nói rằng một ngoại lệ về an ninh quốc gia sẽ tạo ra một lỗ hổng cho các hệ thống trí tuệ nhân tạo đe dọa quyền con người—như máy đo polygraph trí tuệ nhân tạo—có thể trượt qua và rơi vào tay cảnh sát hoặc cơ quan biên giới.
Biện pháp cuối cùng để thông qua hoặc từ chối luật có thể diễn ra vào cuối năm tới. Trước khi các thành viên của Quốc hội Châu Âu nộp đơn sửa đổi vào ngày 1 tháng 6, Tudorache nói với MYTOUR, “Nếu chúng ta có hàng nghìn đơn sửa đổi như một số người dự đoán, công việc thực sự tạo ra một số thỏa thuận từ hàng nghìn đơn sửa đổi sẽ là một công việc khổng lồ.” Ông nay cho biết khoảng 3.300 đề xuất sửa đổi cho Bộ luật về Trí tuệ Nhân tạo đã được nhận nhưng nghĩ rằng quá trình lập pháp Bộ luật về Trí tuệ Nhân tạo có thể kết thúc vào giữa năm 2023.
Lo ngại rằng dự đoán dựa trên dữ liệu có thể gây phân biệt đối xử không chỉ là lý thuyết. Một thuật toán triển khai bởi cơ quan thuế Hà Lan để phát hiện gian lận trợ cấp trẻ em từ năm 2013 đến 2020 đã được phát hiện là đã làm tổn thương hàng ngàn người và dẫn đến hơn 1.000 trẻ em bị đặt vào chăm sóc người hỗ trợ. Hệ thống có vấn đề sử dụng dữ liệu như việc người đó có quốc tịch thứ hai là một tín hiệu để điều tra, và nó có ảnh hưởng không cân đối đối với người nhập cư.
Vụ scandal về lợi ích xã hội ở Hà Lan có thể đã được ngăn chặn hoặc giảm nhẹ hơn nếu các chính authorities đã tạo ra một đánh giá tác động cho hệ thống, như được đề xuất bởi Bộ luật AI, có thể đã đưa ra các tín hiệu cảnh báo, Skoric cho biết. Cô cho rằng luật pháp phải có một giải thích rõ ràng về lý do tại sao một mô hình đạt được các nhãn nhất định, ví dụ như khi các người báo cáo chuyển từ việc dự đoán về công an từ danh mục nguy cơ cao sang một đề xuất cấm.
Alexandru Circiumaru, người đứng đầu chính sách công cộng châu Âu tại Viện Nghiên cứu Độc lập và Nhóm Nhân quyền Ada Lovelace, ở Anh, đồng tình, nói rằng Bộ luật AI cần phải giải thích rõ hơn về phương pháp học mà dẫn đến việc một loại hệ thống AI bị tái phân loại từ bị cấm sang rủi ro cao hoặc ngược lại. “Tại sao những hệ thống này hiện được bao gồm trong những danh mục này, và tại sao chúng không được bao gồm trước đó? Đâu là bài kiểm tra?” ông hỏi.
Việc có thêm sự rõ ràng về những câu hỏi đó cũng cần thiết để ngăn chặn Bộ luật AI từ việc đàn áp các thuật toán có thể mang lại quyền lực, theo Sennay Ghebreab, người sáng lập và giám đốc Civic AI Lab tại Đại học Amsterdam. Việc lập hồ sơ có thể phạt, như trong vụ scandal lợi ích Hà Lan, và anh ủng hộ việc cấm công an dự đoán. Nhưng các thuật toán khác có thể hữu ích—ví dụ, trong việc giúp tái định cư người tị nạn bằng cách tạo hồ sơ về con người dựa trên nền tảng và kỹ năng của họ. Một nghiên cứu năm 2018 được xuất bản trên Khoa học tính toán rằng một thuật toán học máy có thể mở rộng cơ hội việc làm cho người tị nạn tại Hoa Kỳ hơn 40% và hơn 70% tại Thụy Sĩ, với chi phí ít.
“Tôi không tin rằng chúng ta có thể xây dựng những hệ thống hoàn hảo,” ông nói. “Nhưng tôi tin rằng chúng ta có thể liên tục cải thiện hệ thống AI bằng cách nhìn vào những điều đã sai và nhận phản hồi từ cộng đồng.”
Nhiều trong số hàng ngàn sửa đổi đề xuất cho Bộ luật AI sẽ không được tích hợp vào phiên bản cuối cùng của luật pháp. Nhưng Petra Molnar của Refugee Law Lab, người đã đề xuất gần hai chục thay đổi, bao gồm cấm hệ thống như iBorderCtrl, nói rằng đây là một cơ hội quan trọng để làm rõ về những dạng AI nào nên bị cấm hoặc xứng đáng được chăm sóc đặc biệt.
“Đây là một cơ hội quan trọng để suy nghĩ về những gì chúng ta muốn thế giới của chúng ta trông như thế nào, chúng ta muốn xã hội của chúng ta trông như thế nào, điều đó thực sự có nghĩa là thực hành quyền con người trong thực tế, không chỉ trên giấy,” cô nói. “Điều quan trọng là chúng ta nợ gì cho nhau, chúng ta đang xây dựng một thế giới như thế nào, và ai đã bị loại trừ khỏi những cuộc trò chuyện này.”
