
Con người không nên trở thành nô lệ của máy móc, một liên minh của các giáo đoàn Tin lành từ hơn 30 quốc gia đã thuyết giảng cho lãnh đạo Liên minh Châu Âu vào mùa hè vừa qua.
Liên minh Tin lành Châu Âu tin rằng tất cả các hình thức Trí tuệ Nhân tạo có khả năng gây hại cho con người đều nên được đánh giá, và Trí tuệ Nhân tạo có khả năng gây hại cho môi trường cũng nên được gắn nhãn là rủi ro cao, cũng như Trí tuệ Nhân tạo cho chuyển nhượng nhân loại, sửa đổi con người bằng công nghệ như máy tính hoặc máy móc. Nó kêu gọi các thành viên của Ủy ban Châu Âu thảo luận thêm về điều gì được xem xét là “an toàn và đạo đức chấp nhận được” khi nói đến con người được tăng cường và giao diện máy tính não.
Nhóm Tin lành là một trong hơn 300 tổ chức để đưa ra ý kiến về Đạo luật Trí tuệ Nhân tạo của EU, mà các nhà lập pháp và quản lý giới thiệu vào tháng 4. Thời kỳ bình luận về đề xuất kết thúc vào ngày 8 tháng 8, và nó sẽ được xem xét bởi Quốc hội Châu Âu và Hội đồng Châu Âu, gồm các nhà lãnh đạo các quốc gia thành viên EU. Đạo luật Trí tuệ Nhân tạo là một trong những sáng kiến chính trị lớn đầu tiên trên toàn cầu tập trung vào bảo vệ con người khỏi Trí tuệ Nhân tạo có hại. Nếu được ban hành, nó sẽ phân loại các hệ thống Trí tuệ Nhân tạo dựa trên rủi ro, điều chỉnh chặt chẽ hơn Trí tuệ Nhân tạo được xem xét là rủi ro cao đối với con người, và cấm một số hình thức Trí tuệ Nhân tạo hoàn toàn, bao gồm cả nhận diện khuôn mặt thời gian thực trong một số trường hợp. Trong thời gian chờ đợi, các doanh nghiệp và nhóm quan tâm đang công khai lên tiếng lôi kéo các nhà lập pháp để sửa đổi đề xuất theo ý của họ.
Tại trung tâm của nhiều bình luận đó là một cuộc tranh luận về loại trí tuệ nhân tạo nào nên được coi là rủi ro cao. Đạo luật định nghĩa rủi ro cao là trí tuệ nhân tạo có thể gây hại cho sức khỏe hoặc an toàn của người dùng hoặc xâm phạm các quyền cơ bản được đảm bảo cho công dân Liên minh Châu Âu, như quyền sống, quyền sống tự do khỏi phân biệt đối xử và quyền được một phiên tòa công bằng. Các đầu báo tin tức trong những năm gần đây cho thấy những công nghệ này, mà chúng lớn mạnh chưa được quy định, có thể gây hại. Hệ thống trí tuệ nhân tạo có thể dẫn đến bắt giữ sai, kết quả chăm sóc sức khỏe tiêu cực và giám sát hàng loạt, đặc biệt đối với các nhóm thiểu số như người da đen, phụ nữ, các nhóm tôn giáo thiểu số, cộng đồng LGBTQ, người tàn tật và những người thuộc tầng lớp kinh tế thấp. Nếu không có yêu cầu pháp lý cho doanh nghiệp hoặc chính phủ phải tiết lộ khi nào trí tuệ nhân tạo được sử dụng, cá nhân có thể thậm chí không nhận ra tác động của công nghệ đối với cuộc sống của họ.
Liên minh Châu Âu thường xuyên ở t forefront của việc quy định các công ty công nghệ, chẳng hạn như về các vấn đề về cạnh tranh và quyền riêng tư số. Giống như Nghị định Bảo vệ Dữ liệu Tổng quát của EU, Đạo luật Trí tuệ Nhân tạo có tiềm năng định hình chính sách vượt quá ranh giới của châu Âu. Các chính phủ dân chủ đang bắt đầu tạo ra các khuôn khổ pháp lý để quản lý cách trí tuệ nhân tạo được sử dụng dựa trên rủi ro và quyền. Câu hỏi về những gì các cơ quan qu regulátion xác định là rủi ro cao chắc chắn sẽ kích thích các nỗ lực vận động từ Bruxelles đến Luân Đôn đến Washington trong những năm sắp tới.
Giới Thiệu Đạo Luật Trí Tuệ Nhân Tạo
Bên trong Liên minh Châu Âu, một số cấu trúc pháp lý tồn tại để giải quyết cách thuật toán được sử dụng trong xã hội. Năm 2020, một tòa án Hà Lan tuyên bố rằng một thuật toán được sử dụng để xác định gian lận trong số những người nhận trợ cấp công cộng là vi phạm quyền con người. Vào tháng 1, một tòa án Ý tuyên bố rằng một thuật toán của Deliveroo có đặc điểm phân biệt đối xử khi gán điểm đáng tin cậy cho các công nhân làm công việc tạm thời, trừng phạt những người vì những lý do như khẩn cấp cá nhân hoặc bị ốm.
Nhưng Đạo luật Trí tuệ Nhân tạo sẽ tạo ra một khuôn khổ pháp lý và quy định chung cho 27 quốc gia trong Liên minh Châu Âu. Bản dự thảo đề xuất việc tạo ra một cơ sở dữ liệu công khai có thể tìm kiếm được về trí tuệ nhân tạo rủi ro cao được duy trì bởi Ủy ban Châu Âu. Nó cũng tạo ra một Hội đồng Trí tuệ Nhân tạo Châu Âu được giao nhiệm vụ giám sát một số hình thức chưa quyết định. Đặc biệt, Đạo luật Trí tuệ Nhân tạo phụ thuộc vào việc xác định những hình thức trí tuệ nhân tạo nào xứng đáng được gắn nhãn “rủi ro cao”.
Công việc trên Đạo luật Trí tuệ Nhân tạo bắt đầu vào năm 2018 và điều này đã đi trước bởi một số báo cáo về việc làm các hệ thống trí tuệ nhân tạo đáng tin cậy, bao gồm cả công việc với một nhóm chuyên gia 52 thành viên và quy trình liên quan đến hàng nghìn doanh nghiệp, chính phủ và các bên liên quan xã hội. Phản hồi của họ đã giúp thông tin về những hình thức trí tuệ nhân tạo nào được liệt kê là rủi ro cao trong đề xuất dự thảo.
Lãnh đạo Liên minh Châu Âu khẳng định rằng giải quyết các câu hỏi đạo đức xoay quanh trí tuệ nhân tạo sẽ dẫn đến một thị trường cạnh tranh hơn cho hàng hóa và dịch vụ trí tuệ nhân tạo, tăng cường sự áp dụng của trí tuệ nhân tạo và giúp khu vực cạnh tranh với Trung Quốc và Hoa Kỳ. Cơ quan qu regulátion hy vọng nhãn rủi ro cao sẽ khuyến khích các hành vi kinh doanh chuyên nghiệp và có trách nhiệm hơn.
Người đại diện doanh nghiệp cho rằng dự thảo luật đi quá xa, với những chi phí và quy tắc sẽ làm chặn đứng sự đổi mới. Trong khi đó, nhiều tổ chức nhân quyền, đạo đức trí tuệ nhân tạo và các nhóm chống phân biệt đối xử cho rằng Đạo luật Trí tuệ Nhân tạo không đi xa đủ, để lại những người dân dễ bị tổn thương bởi các doanh nghiệp và chính phủ mạnh mẽ có nguồn lực triển khai các hệ thống trí tuệ nhân tạo tiên tiến. (Điều đáng chú ý là dự thảo luật không bao gồm việc sử dụng trí tuệ nhân tạo bởi quân đội.)
(Chủ yếu) Hoạt Động Kinh Doanh Nghiêm Túc
Trong khi một số ý kiến của công dân cá nhân Liên minh Châu Âu về Đạo luật Trí tuệ Nhân tạo, phản hồi chủ yếu đến từ các nhóm chuyên nghiệp dành cho bác sĩ chuyên khoa chụp cắt lớp và bác sĩ chuyên khoa ung thư, các liên đoàn nghề nghiệp cho giáo viên ở Ireland và Đức, cũng như các doanh nghiệp lớn châu Âu như Nokia, Philips, Siemens và Nhóm BMW.
Các công ty Mỹ cũng được đại diện mạnh mẽ, với nhận xét từ Facebook, Google, IBM, Intel, Microsoft, OpenAI, Twilio và Workday. Trên thực tế, theo dữ liệu được thu thập bởi nhân viên Ủy ban Châu Âu, Hoa Kỳ đứng thứ tư về nguồn gốc của hầu hết các ý kiến, sau Bỉ, Pháp và Đức.
Nhiều công ty bày tỏ lo ngại về chi phí của các quy định mới và đặt câu hỏi về cách hệ thống trí tuệ nhân tạo của họ sẽ được đánh giá. Facebook muốn Ủy ban Châu Âu trở nên rõ ràng hơn về việc liệu ủy thác của Đạo luật Trí tuệ Nhân tạo để cấm các kỹ thuật tiềm ẩn nhằm thao túng người có mở rộng đến quảng cáo có mục tiêu hay không. Equifax và MasterCard lẻn từng lời chống lại việc gán nhãn chung rủi ro cao cho bất kỳ trí tuệ nhân tạo nào đánh giá độ tín dụng của một người, tuyên bố rằng điều này sẽ làm tăng chi phí và giảm độ chính xác của đánh giá tín dụng. Tuy nhiên, nhiều nghiên cứu đã phát hiện ra các trường hợp phân biệt đối xử liên quan đến thuật toán, dịch vụ tài chính và các khoản vay.
NEC, công ty nhận dạng khuôn mặt người Nhật Bản, lập luận rằng Đạo luật Trí tuệ Nhân tạo đặt một lượng trách nhiệm quá mức lên nhà cung cấp hệ thống trí tuệ nhân tạo thay vì người sử dụng và rằng đề xuất của dự thảo về việc gắn nhãn tất cả các hệ thống nhận dạng sinh trắc từ xa là rủi ro cao sẽ mang theo chi phí tuân thủ cao.
Một cuộc tranh cãi lớn mà các công ty có với dự thảo luật là cách nó đối xử với các mô hình tổng quát hoặc được huấn luyện trước có khả năng thực hiện một loạt các nhiệm vụ, như GPT-3 của OpenAI hoặc mô hình thí nghiệm đa dạng của Google là MUM. Một số mô hình này là mã nguồn mở, và một số khác là sáng tạo độc quyền được bán cho khách hàng bởi các công ty dịch vụ đám mây có tài năng trí tuệ nhân tạo, dữ liệu và nguồn lực máy tính cần thiết để huấn luyện những hệ thống này. Trong một bản trả lời 13 trang về Đạo luật Trí tuệ Nhân tạo, Google lập luận rằng sẽ khó khăn hoặc không thể để người tạo ra các hệ thống trí tuệ nhân tạo tổng quát tuân thủ các quy tắc.
Các công ty khác đang làm việc trên việc phát triển các hệ thống tổng quát hoặc trí tuệ nhân tạo tổng quát như DeepMind của Google, IBM và Microsoft cũng đề xuất những thay đổi để tính đến trí tuệ nhân tạo có thể thực hiện nhiều nhiệm vụ. OpenAI khuyến khích Ủy ban Châu Âu tránh cấm các hệ thống tổng quát trong tương lai, ngay cả nếu một số trường hợp sử dụng có thể rơi vào danh mục rủi ro cao.
Các doanh nghiệp cũng muốn nhìn thấy người tạo ra Đạo luật Trí tuệ Nhân tạo thay đổi định nghĩa của các thuật ngữ quan trọng. Các công ty như Facebook lập luận rằng dự thảo luật sử dụng thuật ngữ quá rộng để định nghĩa các hệ thống rủi ro cao, dẫn đến quá nhiều quy định. Người khác đề xuất những thay đổi kỹ thuật hơn. Ví dụ, Google muốn thêm một định nghĩa mới vào dự thảo luật phân biệt giữa “người triển khai” của một hệ thống trí tuệ nhân tạo và “nhà cung cấp”, “nhà phân phối” hoặc “nhà nhập khẩu” của hệ thống trí tuệ nhân tạo. Theo lập luận của công ty, việc này có thể đặt trách nhiệm cho các sửa đổi được thực hiện trên một hệ thống trí tuệ nhân tạo vào doanh nghiệp hoặc tổ chức thực hiện sự thay đổi thay vì công ty đã tạo ra ban đầu. Microsoft cũng đưa ra đề xuất tương tự.
Những Chi Phí của Trí tuệ Nhân tạo Rủi ro Cao
Sau đó là vấn đề về mức chi phí mà một nhãn rủi ro cao sẽ đối mặt với doanh nghiệp.
Một nghiên cứu của nhân viên Ủy ban Châu Âu đặt chi phí tuân thủ cho một dự án Trí tuệ Nhân tạo dưới Đạo luật Trí tuệ Nhân tạo khoảng 10.000 euro và kết luận rằng các công ty có thể mong đợi chi phí tổng cộng ban đầu là khoảng 30.000 euro. Khi các công ty phát triển phương pháp chuyên nghiệp và trở thành điều thông thường trong kinh doanh, nó mong đợi chi phí sẽ giảm xuống gần 20.000 euro. Nghiên cứu sử dụng một mô hình được tạo ra bởi Văn phòng Thống kê Liên bang ở Đức và thừa nhận rằng chi phí có thể thay đổi tùy thuộc vào kích thước và phức tạp của một dự án. Khi các nhà phát triển chọn mua và tùy chỉnh các mô hình Trí tuệ Nhân tạo, sau đó nhúng chúng vào sản phẩm của họ, nghiên cứu kết luận rằng một “sinh thái phức tạp có thể liên quan đến một chia sẻ trách nhiệm phức tạp.”
Nói chung, nghiên cứu dự đoán rằng đến năm 2025, ngành công nghiệp Trí tuệ Nhân tạo toàn cầu sẽ chi trả từ 1,6 đến 3,3 tỷ euro hàng năm cho chi phí tuân thủ. Một đánh giá tác động riêng của Đạo luật Trí tuệ Nhân tạo ước tính rằng từ 5 đến 15% Trí tuệ Nhân tạo có thể được phân loại là rủi ro cao và mong đợi chi phí bổ sung. Đánh giá đó cũng cảnh báo rằng nếu Ủy ban Châu Âu không ban hành văn bản pháp luật như Đạo luật Trí tuệ Nhân tạo, một cách tiếp cận phân mảnh có thể dẫn đến chi phí tuân thủ cao hơn cho các doanh nghiệp Châu Âu làm việc với các dạng Trí tuệ Nhân tạo rủi ro cao.
Trung tâm Đổi mới Cơ sở dữ liệu—thuộc Viện Công nghệ Thông tin và Đổi mới, nhận sự hỗ trợ từ các công ty công nghệ lớn cũng như các công ty như AT&T, Procter & Gamble, Merck và Pfizer—cho rằng ước tính chi phí của EU là quá thấp. Nó ước tính rằng đến năm 2025, doanh nghiệp sẽ phải trả hơn 10 tỷ euro hàng năm và chi phí cho một số doanh nghiệp vừa và nhỏ có thể lên đến 400.000 euro. Phân tích của trung tâm cũng dự đoán rằng Đạo luật Trí tuệ Nhân tạo sẽ làm mất nhân tài Trí tuệ Nhân tạo và giảm đầu tư và sự áp dụng Trí tuệ Nhân tạo trên toàn Liên minh châu Âu. Những kết quả và con số này sau đó được các cơ quan thông tấn đưa tin và được Phòng Thương mại Hoa Kỳ trích dẫn trong thư gửi Ủy ban Châu Âu.

Meeri Haataja, Giám đốc điều hành của một startup Trí tuệ Nhân tạo tại Phần Lan, và Joanna Bryson, giáo sư về đạo đức và công nghệ tại Phòng thí nghiệm Khoa học Dữ liệu Hertie ở Đức, đã phản đối các số liệu của trung tâm. Trong một bài phân tích mới được xuất bản, cả hai đánh giá chi phí tuân thủ Đạo luật Trí tuệ Nhân tạo và ý kiến phản hồi về dự thảo luật từ các lợi ích kinh doanh, các tư duy và tổ chức xã hội dân sự. Họ ước tính rằng Đạo luật Trí tuệ Nhân tạo có thể tạo chi phí cho các doanh nghiệp triển khai Trí tuệ Nhân tạo rủi ro cao khoảng 13.000 euro mỗi hệ thống để tuân thủ các yêu cầu giám sát của con người, gần với ước tính của EU.
Haataja và Bryson nói rằng Trung tâm Đổi mới Cơ sở dữ liệu đã chọn con số lớn nhất và đáng sợ từ một báo cáo của EU, nhưng họ kết luận rằng cần thêm sự xem xét về chi phí tuân thủ liên quan đến Đạo luật Trí tuệ Nhân tạo.
Chuyên viên chính sách cấp cao Ben Mueller là tác giả của nghiên cứu của Trung tâm Đổi mới Cơ sở dữ liệu. Anh nói con số của mình đã tính đến chi phí của một hệ thống quản lý chất lượng, một tiêu chuẩn tuân thủ quy định mà việc thiết lập có giá hàng trăm nghìn euro. Nhân viên Ủy ban Châu Âu nói rằng chi phí của một hệ thống quản lý chất lượng không được tính vào đánh giá tác động của EU, vì hầu hết các công ty sản xuất hệ thống Trí tuệ Nhân tạo đã có các hệ thống quy định như vậy và việc tính toán sẽ là “mơ hồ”.
“Cuộc tranh luận dựa vào một phần nào đó của hệ thống Trí tuệ Nhân tạo sẽ được xem xét là rủi ro cao,” Mueller nói, chỉ vào một phần của báo cáo đánh giá tác động của EU nói rằng định nghĩa về rủi ro cao sẽ xác định mức chi tiêu của bao nhiêu cho chi phí tuân thủ Trí tuệ Nhân tạo.
Bryson phản đối ý kiến rằng chi phí tuân thủ cho các dạng Trí tuệ Nhân tạo rủi ro cao sẽ là gánh nặng quá lớn, đặc biệt khi các công ty đối mặt với yêu cầu tuân thủ liên tục trong các lĩnh vực nhạy cảm như quyền riêng tư hoặc an ninh mạng. Và cô mong đợi rằng các công ty phát triển Trí tuệ Nhân tạo không được xem xét là rủi ro cao có thể tự nguyện áp dụng các tiêu chuẩn tương tự.
“Nếu một công ty không sẵn lòng chi tiêu một số tiền nhất định để xem xét những vấn đề như thế này, có lẽ họ không nên tham gia vào loại phần mềm nguy hiểm,” Bryson nói.
Yêu cầu Gán Nhãn Nhiều Loại Trí tuệ Nhân tạo hơn là Rủi ro Cao
Trong khi lợi ích kinh doanh và công nghệ nói rằng Đạo luật Trí tuệ Nhân tạo đi quá xa, người khác nói rằng nó không đi đủ xa. Những nhà phê bình này chủ yếu là tổ chức xã hội và những người ủng hộ quyền con người, cũng như một số nghiên cứu viên Trí tuệ Nhân tạo, một số trong số họ đã đến nay đã định hình luật lệ từ phía sau cánh cửa.
Tổ chức quốc tế về quyền con người Access Now nói rằng Đạo luật Trí tuệ Nhân tạo cần một số thay đổi lớn nếu không nó sẽ không đạt được mục tiêu bảo vệ quyền cơ bản. Tháng 1, Access Now tham gia cùng hơn 100 thành viên của Quốc hội châu Âu và hàng chục tổ chức nhân quyền khác kêu gọi Ủy ban Châu Âu cấm Trí tuệ Nhân tạo trong một số trường hợp sử dụng. Một số lệnh cấm hoặc đánh giá rủi ro cao được yêu cầu đều xuất hiện trong văn bản dự thảo, bao gồm hạn chế về Trí tuệ Nhân tạo cho kiểm soát biên giới hoặc di cư, Trí tuệ Nhân tạo có thể gán điểm xã hội cho người dùng và Trí tuệ Nhân tạo có khả năng thao túng con người. Dự thảo cũng cấm nhận diện khuôn mặt trực tuyến bởi lực lượng thực thi pháp luật, ngoại trừ trong một số tình huống nhất định.
Trong bình luận của mình, các quan chức của Access Now mô tả ngôn ngữ cấm dự thảo là mơ hồ và chứa quá nhiều lỗ hổng. Nhóm cũng nói rằng đạo luật cần một định nghĩa rõ ràng hơn về mức độ rủi ro được xem xét là không chấp nhận được, để có tiêu chí rõ ràng để cách chấm dứt thêm các hình thức Trí tuệ Nhân tạo trong tương lai.
Viện Nghiên cứu Về Tương Lai, một tổ chức nghiên cứu phi lợi nhuận, lập luận ủng hộ một ngưỡng thấp hơn cho điều được coi là thao tác tiềm ẩn, một loại sử dụng bị cấm theo Đạo luật Trí tuệ Nhân tạo. Adtech tối ưu hóa số lượt nhấp quảng cáo để tạo nên sự nghiện, tổ chức cho rằng điều này có thể dẫn đến tình trạng tâm lý kém, sự lan truyền thông tin sai lệch hoặc cực đoan. Nó cũng đồng ý với quan điểm của Google rằng Đạo luật Trí tuệ Nhân tạo nên được sửa đổi để tính đến Trí tuệ Nhân tạo có thể được sử dụng cho nhiều mục đích nhưng với lý do khác nhau, nhấn mạnh rằng việc đánh giá hệ thống dựa trên một mục đích duy nhất “có thể cho phép các công nghệ ngày càng biến đổi tránh xa sự kiểm tra của cơ quan quản lý.”
Liên minh Quyền tự do Dân sự cho châu Âu muốn đạo luật yêu cầu kiểm toán của bên thứ ba cho tất cả các hệ thống Trí tuệ Nhân tạo có rủi ro cao; bản thảo hiện tại chỉ yêu cầu nó đối với một số hình thức nhận dạng sinh trắc như nhận dạng khuôn mặt.
“Những hệ thống này là mối đe dọa đối với tự do cá nhân của chúng ta, bao gồm quyền được giáo dục, quyền được một phiên tòa công bằng, quyền riêng tư và quyền tự do ngôn luận. Chúng thường xuyên tạo ra tình huống mất cân bằng quyền lực nghiêm trọng và có ảnh hưởng lớn đến quyền cơ bản của con người. Việc ủy quyền đánh giá rủi ro của chúng cho các doanh nghiệp tập trung vào việc tuân theo các quy tắc khi cần thiết và không phải là để bảo vệ quyền cơ bản là không chấp nhận được,” nhóm viết trong một tuyên bố gửi đến Ủy ban Châu Âu.
Các nhóm khác đang yêu cầu thêm các dạng Trí tuệ Nhân tạo nhận được nhãn rủi ro cao. Ủy ban Y sĩ Châu Âu yêu cầu Trí tuệ Nhân tạo để xác định một phí bảo hiểm hoặc đánh giá liệu pháp y tế nên được xem xét là rủi ro cao. Climate Change AI, một nhóm các nhà nghiên cứu máy học, muốn lượng khí nhà kính của một thuật toán được xem xét là một phần của tính toán rủi ro.
Bryson, giáo sư tại Đức, nói cô và cộng tác viên Haataja của mình nghi ngờ rằng mỗi công ty sản xuất rủi ro hiện nay thực sự sẽ được phân loại là rủi ro cao theo Đạo luật Trí tuệ Nhân tạo, nhưng nhìn chung cô là lạc quan. Theo ước lượng của cô, mọi thứ đã chuyển từ nguyên tắc đạo đức sang chính sách khá nhanh chóng.
Cô nói rằng một số lời nói của doanh nghiệp về Đạo luật Trí tuệ Nhân tạo nhắc nhở cô về khi cô nghe đồng nghiệp tại các công ty Công nghệ Lớn trước khi GDPR được công bố tuyên bố họ sẽ bị buộc phải rời khỏi châu Âu. Nhưng sau sáu tháng kể từ khi GDPR được thông qua, Bryson nói rằng những người đó gọi Đạo luật về quyền riêng tư là tuyệt vời, giống như một API đơn cho hàng chục quốc gia châu Âu. Theo thời gian, cô hy vọng sẽ nghe thấy những điều tương tự về Đạo luật Trí tuệ Nhân tạo nếu nó được thông qua.
“Chúng ta biết rằng không có một kịch bản cuối cùng hoàn hảo,” cô nói, nhưng việc thông qua Đạo luật Trí tuệ Nhân tạo sẽ giúp châu Âu trở nên “tốt hơn với việc có các cấu trúc có thể giúp chúng ta đạt được giai đoạn tiếp theo.”
Điều Gì Đến Sau
Để trở thành luật, Đạo luật Trí tuệ Nhân tạo sẽ tiếp theo trải qua các sửa đổi do Quốc hội châu Âu và Hội đồng châu Âu thực hiện, mang đến cho các nhóm cơ hội thêm để thúc đẩy lợi ích của họ. Câu hỏi về ai chịu trách nhiệm khi Trí tuệ Nhân tạo hoặc các dạng công nghệ mới gây hại cho người dân được dự kiến sẽ được đề cập đến trong giai đoạn tiếp theo của chính sách công nghệ của EU, dự kiến sẽ bắt đầu vào cuối năm nay. Nếu Đạo luật Trí tuệ Nhân tạo trở thành luật, Ủy ban châu Âu sẽ có khả năng cập nhật danh sách các hệ thống rủi ro cao. Luật sẽ có hiệu lực sau hai năm.
Chiến lược để ảnh hưởng đến quản lý Trí tuệ Nhân tạo diễn ra ở Brussels hiện tại chỉ là bắt đầu. Một cuộc hội nghị tương tự của các lợi ích kinh doanh mạnh mẽ, các liên đoàn nghề nghiệp, và các nhóm xã hội dân sự và nhóm hoạt động chắc chắn sẽ đến Washington sớm.
Một người quen với vấn đề này cho biết với Mytour rằng các nhà lập pháp trong Quốc hội đang làm việc trên một phiên bản của Đạo luật Trách nhiệm Algorithmic. Được giới thiệu vào năm 2019, đạo luật yêu cầu doanh nghiệp đánh giá máy học và Trí tuệ Nhân tạo rủi ro cao về độ chệch lệch, không chính xác, hoặc phân biệt đối xử.
Viện Tiêu chuẩn và Công nghệ Quốc gia cũng đang phát triển một công cụ đánh giá rủi ro Trí tuệ Nhân tạo và tìm kiếm ý kiến đóng góp của công dân và cách đo lường mức độ tin tưởng của người dùng vào Trí tuệ Nhân tạo dựa trên mức rủi ro. Một báo cáo được công bố tháng trước bởi Trung tâm An ninh Mạng Dài hạn của UC Berkeley bao gồm cuộc phỏng vấn với nhân viên của NIST và yêu cầu cơ quan liên bang thông qua các quy tắc nghiêm ngặt hơn cho khung đánh giá rủi ro Trí tuệ Nhân tạo của mình so với các phiên bản trước được tạo ra xung quanh quyền riêng tư và an ninh mạng. Tác giả nghiên cứu Au Yeung cũng kêu gọi công cụ tích hợp hại về môi trường và ảnh hưởng đối với cộng đồng bị cách biệt trong định nghĩa về hệ thống Trí tuệ Nhân tạo rủi ro cao.
Những Sáng Tạo Tuyệt Vời Khác Từ Mytour
- 📩 Cập nhật mới nhất về công nghệ, khoa học, và nhiều hơn nữa: Đăng ký nhận bản tin của chúng tôi!
- Nhìn nhận về cây bút lông: Mặt tối của Instagram đầy những chú nhím
- Làm thế nào để gửi những tin nhắn tự động biến mất
- Tương lai nông nghiệp đầy robot là ác mộng hay ước mơ?
- Deepfakes hiện đang tạo ra những đề xuất kinh doanh
- Đã đến lúc mang lại quần cargo trở lại
- 👁️ Khám phá Trí tuệ Nhân tạo như chưa bao giờ bằng cơ sở dữ liệu mới của chúng tôi
- 🎮 Mytour Games: Nhận những mẹo mới nhất, đánh giá, và nhiều hơn nữa
- 🏃🏽♀️ Muốn có những công cụ tốt nhất để duy trì sức khỏe? Kiểm tra các lựa chọn của đội ngũ Gear chúng tôi cho bộ theo dõi sức khỏe tốt nhất, trang thiết bị chạy bộ (bao gồm giày và tất), và tai nghe tốt nhất
