Một đánh giá kritik về 'Hướng dẫn đạo đức cho Trí tuệ Nhân tạo đáng tin cậy' của Liên minh châu Âu
Châu Âu có những chính sách quản lý Trí tuệ Nhân tạo tiến bộ và tập trung vào con người nhất trên thế giới. So với sự giám sát của chính phủ nặng nề tại Trung Quốc hoặc phương pháp điều gì cũng được kiểu miền Tây ở Hoa Kỳ, chiến lược của Liên minh châu Âu được thiết kế để kích thích sự đổi mới học thuật và doanh nghiệp đồng thời bảo vệ người dân tư nhân khỏi tổn thương và sự vượt quá quyền hạn. Nhưng điều đó không có nghĩa là hoàn hảo.
Sáng tạo năm 2018
Năm 2018, Ủy ban châu Âu bắt đầu sáng tạo Liên minh Trí tuệ Nhân tạo châu Âu. Liên minh tồn tại để các bên liên quan có thể đưa ra ý kiến và được lắng nghe khi Liên minh châu Âu xem xét các chính sách liên quan đến phát triển và triển khai các công nghệ Trí tuệ Nhân tạo.
Kể từ năm 2018, hơn 6,000 bên liên quan đã tham gia vào cuộc đối thoại qua các diễn đàn trực tuyến và sự kiện trực tiếp.
Nhận xét, lo ngại và lời khuyên được cung cấp bởi những bên liên quan đã được xem xét bởi 'Nhóm chuyên gia cấp cao về trí tuệ nhân tạo' của Liên minh châu Âu, người cuối cùng đã tạo ra bốn tài liệu chính là cơ sở cho các cuộc thảo luận chính sách về Trí tuệ Nhân tạo của Liên minh châu Âu:
1. Hướng dẫn đạo đức cho Trí tuệ Nhân tạo đáng tin cậy
2. Đề xuất Chính sách và Đầu tư cho Trí tuệ Nhân tạo đáng tin cậy
Bài viết này tập trung vào mục số một: 'Hướng dẫn đạo đức cho Trí tuệ Nhân tạo đáng tin cậy' của Liên minh châu Âu.
Xuất bản vào năm 2019, tài liệu này đề cập đến những lo ngại về đạo đức và các quy tắc tốt nhất cho Liên minh châu Âu. Mặc dù tôi không exactly gọi nó là 'tài liệu sống,' nó được hỗ trợ bởi hệ thống báo cáo được cập nhật liên tục thông qua sáng tạo Liên minh Trí tuệ Nhân tạo châu Âu.
'Hướng dẫn đạo đức cho Trí tuệ Nhân tạo đáng tin cậy cung cấp một 'bộ 7 yêu cầu chính mà hệ thống AI cần đáp ứng để được coi là đáng tin cậy.'
Tác động của con người và giám sát
Theo tài liệu:
Hệ thống Trí tuệ Nhân tạo nên tăng cường sức mạnh cho con người, cho phép họ đưa ra quyết định có thông tin và bảo vệ quyền cơ bản của họ. Đồng thời, cần đảm bảo các cơ chế giám sát đúng đắn, có thể đạt được thông qua các phương pháp con người trong vòng, con người trên vòng, và con người chỉ huy.
Đánh giá của Neural: kém
Con người trong vòng, con người trên vòng, và con người chỉ huy đều là những phương pháp chủ quan rất mở cửa cho quản lý Trí tuệ Nhân tạo, thường dựa vào chiến lược tiếp thị, ngôn ngữ chính thức của doanh nghiệp và các phương pháp không chân thành để thảo luận về cách mà mô hình AI hoạt động để có vẻ có hiệu suất cao.
Đơn giản, thần thoại 'con người trong vòng' liên quan đến ý tưởng rằng một hệ thống AI an toàn miễn là có một con người cuối cùng chịu trách nhiệm cho 'nhấn nút' hoặc ủy quyền thực hiện một chức năng học máy có thể gây ảnh hưởng tiêu cực đối với con người.
Vấn đề: Con người trong vòng phụ thuộc vào con người có năng lực ở mọi cấp độ của quá trình ra quyết định để đảm bảo sự công bằng. Thật không may, các nghiên cứu cho thấy con người dễ bị máy móc điều khiển một cách dễ dàng.
Chúng ta cũng thường xuyên phớt lờ cảnh báo mỗi khi chúng trở nên thông thường.
Hãy nghĩ về điều này, lần cuối cùng bạn đã đọc tất cả các điều khoản mịn trên một trang web trước khi đồng ý với các điều kiện được đưa ra là khi nào? Bạn thường xuyên phớt lờ đèn cảnh báo 'kiểm tra động cơ' trên xe hơi hay cảnh báo 'đã đến lúc cập nhật' trên phần mềm khi nó vẫn hoạt động đúng chức năng, phải không?
Tự động hóa các chương trình hoặc dịch vụ ảnh hưởng đến kết quả của con người dưới vỏ bọc rằng có một 'con người trong vòng' đủ để ngăn chặn sự không đồng nhất hoặc lạm dụng là, theo ý kiến của tác giả, là một cách tiếp cận vô ích đối với quy định, mà cho phép doanh nghiệp phát triển các mô hình gây hại miễn là họ thêm yêu cầu 'con người trong vòng' cho việc sử dụng.
Là một ví dụ về những điều có thể gặp vấn đề, bài viết đoạt giải thưởng của ProPublica 'Machine Bias' đã chỉ ra khả năng của mô hình 'con người trong vòng' gây ra độ chệch bổ sung bằng cách minh họa cách Trí tuệ Nhân tạo được sử dụng để đề xuất án phạt tội phạm có thể duy trì và làm tăng cường sự phân biệt chủng tộc.
Một giải pháp: Liên minh châu Âu nên loại bỏ ý tưởng về việc tạo ra 'cơ chế giám sát đúng đắn' và thay vào đó tập trung vào việc tạo ra các chính sách quy định việc sử dụng và triển khai các hệ thống Trí tuệ Nhân tạo hộp đen để ngăn chúng được triển khai trong tình huống có thể ảnh hưởng đến kết quả của con người trừ khi có một cơ quan con người có thể chịu trách nhiệm cuối cùng.
Khả năng kỹ thuật và an toàn
Theo tài liệu:
Hệ thống Trí tuệ Nhân tạo cần phải mạnh mẽ và an toàn. Chúng cần phải đảm bảo an toàn, đồng thời đảm bảo kế hoạch dự phòng nếu có điều gì đó không đúng, cũng như độ chính xác, đáng tin cậy và có thể tái tạo. Đó là cách duy nhất để đảm bảo rằng cũng có thể giảm thiểu và ngăn chặn tổn thương không chủ ý.
Đánh giá của Neural: cần làm việc.
Mà không có một định nghĩa cho 'an toàn,' toàn bộ tuyên bố đều là sự lăng xê. Hơn nữa, 'độ chính xác' là một thuật ngữ có thể điều chỉnh trong thế giới Trí tuệ Nhân tạo thường tham chiếu đến các chỉ số tùy ý không chuyển hóa ngoài phòng thí nghiệm.
Một giải pháp: Liên minh châu Âu nên đặt ra một yêu cầu tối thiểu rằng các mô hình Trí tuệ Nhân tạo triển khai tại châu Âu có tiềm năng ảnh hưởng đến kết quả của con người phải chứng minh sự bình đẳng. Một mô hình AI đạt độ tin cậy hoặc 'độ chính xác' thấp trong các nhiệm vụ liên quan đến cộng đồng thiểu số nên được coi là không an toàn hoặc không đáng tin cậy.
Quyền riêng tư và quản lý dữ liệu
Theo tài liệu:
Ngoài việc đảm bảo tôn trọng đầy đủ cho quyền riêng tư và bảo vệ dữ liệu, cần đảm bảo cơ chế quản lý dữ liệu đủ mạnh mẽ, xem xét chất lượng và tính toàn vẹn của dữ liệu, và đảm bảo quyền truy cập được phép đến dữ liệu.
Đánh giá của Neural: khá tốt, nhưng có thể cải thiện được.
May mắn thay, Nghị định Bảo vệ Dữ liệu Tổng quát (GDPR) đã thực hiện hầu hết công việc nặng nề ở đây. Tuy nhiên, các thuật ngữ 'chất lượng và tính toàn vẹn' cũng như 'quyền truy cập được phép' là rất chủ quan.
Một giải pháp: Liên minh châu Âu nên định nghĩa một tiêu chuẩn nơi dữ liệu phải được thu thập có sự đồng thuận và được xác minh bởi con người để đảm bảo rằng cơ sở dữ liệu được sử dụng để đào tạo mô hình chỉ chứa dữ liệu đã được đánh dấu đúng và sử dụng với sự cho phép của người hoặc nhóm đã tạo ra nó.
Sự minh bạch
Theo tài liệu:
Dữ liệu, hệ thống và mô hình kinh doanh Trí tuệ Nhân tạo nên được minh bạch. Các cơ chế theo dõi có thể giúp đạt được điều này. Hơn nữa, hệ thống Trí tuệ Nhân tạo và quyết định của chúng nên được giải thích một cách phù hợp với bên liên quan. Con người cần nhận thức rằng họ đang tương tác với một hệ thống Trí tuệ Nhân tạo và phải được thông báo về khả năng và hạn chế của hệ thống.
Đánh giá của Neural: điều này là rác rưởi nóng.
Chỉ có một phần nhỏ các mô hình Trí tuệ Nhân tạo thích hợp với sự minh bạch. Đa số các mô hình Trí tuệ Nhân tạo đang hoạt động hiện nay là các hệ thống 'hộp đen' mà, theo bản chất của kiến trúc của chúng, tạo ra đầu ra bằng quá nhiều bước trừu tượng, suy luận hoặc sự nhầm lẫn đối với con người để phân tích.
Nói cách khác, một hệ thống Trí tuệ Nhân tạo cụ thể có thể sử dụng hàng tỷ tham số khác nhau để tạo ra một đầu ra. Để hiểu tại sao nó tạo ra kết quả cụ thể đó thay vì một kết quả khác, chúng ta phải xem xét từng tham số đó một cách từng bước để có thể đưa ra cùng một kết luận như máy móc.
Một giải pháp: Liên minh châu Âu nên áp dụng một chính sách nghiêm ngặt ngăn chặn triển khai các hệ thống Trí tuệ Nhân tạo mù mịt hoặc hộp đen tạo ra đầu ra có thể ảnh hưởng đến kết quả của con người trừ khi có một cơ quan con người được chỉ định có thể chịu trách nhiệm đầy đủ cho các kết quả tiêu cực không mong muốn.
Đa dạng, không phân biệt đối xử và công bằng
Theo tài liệu:
Phải tránh bất công đối xử, vì nó có thể mang lại nhiều hậu quả tiêu cực, từ đẩy lùi các nhóm yếu đuối, đến làm trầm trọng thêm đối xử và phân biệt đối xử. Khuyến khích sự đa dạng, hệ thống Trí tuệ Nhân tạo nên truy cập được cho tất cả mọi người, không phụ thuộc vào bất kỳ khuyết tật nào, và tham gia các bên liên quan trong suốt chu kỳ sống của chúng.
Đánh giá của Neural: kém.
Để mô hình Trí tuệ Nhân tạo tham gia 'các bên liên quan trong suốt chu kỳ sống của chúng,' chúng cần được đào tạo trên dữ liệu được thu thập từ nhiều nguồn và được phát triển bởi các đội ngũ người đa dạng. Thực tế là STEM được thống trị bởi nam giới trắng, thẳng, cis và có vô số nghiên cứu đồng thuận chứng minh rằng điều đó làm cho việc gần như không thể tạo ra nhiều loại mô hình Trí tuệ Nhân tạo mà không có độ chệch.
Một giải pháp: Trừ khi Liên minh châu Âu có một phương pháp để giải quyết vấn đề thiếu đại diện của người dân thiểu số trong STEM, nó nên tập trung vào việc tạo ra các chính sách ngăn doanh nghiệp và cá nhân triển khai mô hình Trí tuệ Nhân tạo tạo ra các kết quả khác nhau cho người dân thiểu số.
Sự phồn thịnh và môi trường xã hội
Theo tài liệu:
Hệ thống Trí tuệ Nhân tạo nên mang lại lợi ích cho tất cả mọi người, bao gồm cả các thế hệ tương lai. Do đó, cần đảm bảo rằng chúng là bền vững và thân thiện với môi trường. Hơn nữa, chúng nên xem xét đến môi trường, bao gồm cả các sinh linh khác, và tác động xã hội và xã hội của chúng cần được xem xét một cách cẩn thận.
Đánh giá của Neural: tuyệt vời. Không có ghi chú!
Trách nhiệm
Theo tài liệu:
Cần thiết phải đặt cơ chế để đảm bảo trách nhiệm và chịu trách nhiệm cho hệ thống Trí tuệ Nhân tạo và kết quả của chúng. Khả năng kiểm tra, giúp đánh giá thuật toán, dữ liệu và quy trình thiết kế đóng một vai trò quan trọng trong đó, đặc biệt là trong các ứng dụng quan trọng. Hơn nữa, cần đảm bảo có sự đền bù đủ và dễ tiếp cận.
Đánh giá của Neural: khá tốt, nhưng có thể cải thiện được.
Hiện tại không có sự nhất trí chính trị về việc ai chịu trách nhiệm khi Trí tuệ Nhân tạo gặp sự cố. Nếu hệ thống nhận diện khuôn mặt ở sân bay của Liên minh châu Âu, ví dụ, nhận dạng sai một hành khách và cuộc điều tra kết quả gây thiệt hại tài chính cho họ (họ bỏ lỡ chuyến bay và mọi cơ hội phát sinh từ chuyến đi của họ) hoặc đau khổ tâm lý không cần thiết, không có ai có thể chịu trách nhiệm về sai sót đó.
Các nhân viên tuân theo quy trình dựa trên sự nhận dạng của Trí tuệ Nhân tạo về một mối đe doạ tiềm ẩn chỉ đang làm công việc của họ. Và các nhà phát triển đã đào tạo hệ thống thì thường không thể bị chỉ trích khi mô hình của họ được triển khai.
Một giải pháp: Liên minh châu Âu nên tạo ra một chính sách cụ thể nói rõ rằng con người luôn phải chịu trách nhiệm khi một hệ thống Trí tuệ Nhân tạo gây ra kết quả không mong muốn hoặc sai lầm cho một con người khác. Chính sách và chiến lược hiện tại của Liên minh châu Âu khuyến khích một cách tiếp cận 'đổ lỗi cho thuật toán' có lợi ích hơn cho quyền công dân.
Củng cố nền tảng vững chắc hơn
Mặc dù bình luận ở trên có thể là nặng nề, tôi tin rằng chiến lược Trí tuệ Nhân tạo của Liên minh châu Âu là một nguồn sáng dẫn đường. Tuy nhiên, rõ ràng rằng mong muốn của Liên minh châu Âu cạnh tranh với thị trường đổi mới của Silicon Valley trong lĩnh vực Trí tuệ Nhân tạo đã đẩy thanh ngưỡng của công nghệ tập trung vào lợi ích doanh nghiệp hơn so với các sáng kiến chính sách công nghệ khác của liên minh.
Liên minh châu Âu sẽ không ký kết cho một chiếc máy bay đã được chứng minh toán học sẽ gặp tai nạn thường xuyên hơn nếu có hành khách là người Mỹ gốc Phi, phụ nữ, hoặc người queers so với khi có những người đàn ông da trắng trên máy bay. Nó cũng không nên để những nhà phát triển Trí tuệ Nhân tạo thoát khỏi việc triển khai các mô hình hoạt động theo cách đó.
