Nghĩa là gì khi trí tuệ nhân tạo? Không chỉ là một trò chơi vô tận cho những nhà triết học tình nguyện, cuộc tranh luận này quan trọng trong Đạo luật Trí tuệ Nhân tạo sắp tới dành cho 447 triệu công dân của Liên minh Châu Âu. Đạo luật Trí tuệ Nhân tạo, hay còn được biết đến là Đạo luật AI hoặc AIA, sẽ quyết định trí tuệ nhân tạo có thể triển khai như thế nào trong Liên minh Châu Âu và nó sẽ tốn bao nhiêu chi phí cho một tổ chức để làm điều này.
Đương nhiên, AIA không chỉ là bối cảnh cho cuộc trò chuyện này mà còn là một hiện vật của một khoảnh khắc lớn hơn nhiều. Lượng lớn dữ liệu đang được thu thập không chỉ về chúng ta cá nhân mà còn về mọi thành phần của xã hội chúng ta. Con người, ít nhất là một số phần, đang xây dựng sự hiểu biết về dân số, dân số học, tính cách và chính trị. Với sự hiểu biết đó đến khả năng dự đoán và khả năng thao túng. Quản lý và khai thác công nghệ và thương mại vượt quốc gia đã trở thành một vấn đề quan trọng của quan hệ quốc tế và một đại lộ của xung đột quốc tế. Trí tuệ nhân tạo không chỉ là nguồn của sự giàu có mà còn là phương tiện chuyển đổi tài sản đó một cách hiệu quả hơn thành sức ảnh hưởng và quyền lực.
Phiên bản hiện tại của AIA là bản thảo được viết bởi Ủy ban Châu Âu, được công bố vào năm 2021. Hiện nay, Quốc hội Châu Âu đã tìm kiếm ý kiến phản hồi khi nó đề xuất một phiên bản sửa đổi và hy vọng là cải thiện. Phiên bản cuối cùng sẽ có ảnh hưởng lớn không chỉ trong EU mà còn đối với cuộc sống và doanh nghiệp trên toàn cầu, thậm chí đối với những người và công ty không bao giờ ghé thăm hoặc kinh doanh với EU.
Tương tự như Nghị định Quyền riêng tư Dữ liệu Tổng quát trước đó (GDPR), Liên minh Châu Âu thông qua AIA trước hết và trên hết đang cố gắng mở rộng nền kinh tế số của chúng ta. GDPR có vẻ như chỉ là một câu chuyện kém hài hước với quá nhiều cửa sổ bật lên. (Trong thực tế, nhiều cửa sổ bật lên được xây dựng một cách bất hợp pháp để làm phiền nhiễu quá mức nhằm làm mất uy tín cho quy định; Facebook gần đây mới bị ép buộc phải làm cho của họ rõ ràng hơn.) Nhưng GDPR về cơ bản cung cấp một giao diện pháp lý duy nhất cho toàn thị trường số của EU. Điều này đã làm phát triển kinh tế, không chỉ cho Big Tech mà còn cho các doanh nghiệp khởi nghiệp và nền kinh tế số của nhiều quốc gia thành viên châu Âu. Ngay cả các quốc gia nhỏ như Áo và Hy Lạp cũng đã thấy nền kinh tế số của họ tăng vọt trong thập kỷ qua, chấm dứt ý nghĩa rằng GDPR—mà đã mất 7 năm trong quá trình phát triển công khai trước khi có hiệu lực vào năm 2018—sẽ phá hủy thương mại điện tử châu Âu.
Việc biến EU thành một thị trường mạnh mẽ, hấp dẫn và cạnh tranh đòi hỏi việc làm cho nó dễ dàng hơn cho một công ty hoạt động trong tất cả 27 quốc gia thành viên như nó sẽ là ở bất kỳ quốc gia nào. Điều này đòi hỏi “đồng bộ hóa” luật lệ, cũng như thị trường, trên toàn bộ khối, và điều này đòi hỏi đảm bảo các biện pháp bảo vệ mà mỗi quốc gia đòi hỏi cho công dân của mình.
Điều mà EU đặt ra để giải quyết với AIA là: Khi nào và làm thế nào chúng ta có thể cho phép những sản phẩm nhân tạo thực hiện các hành động? Hệ thống phát triển và vận hành nào nên được thiết lập để đảm bảo rằng hệ thống trí tuệ nhân tạo là an toàn, hiệu quả và có lợi cho xã hội? Làm thế nào chúng ta có thể đảm bảo rằng những người phát triển và vận hành các hệ thống thông minh làm cho chúng đáng tin cậy và công bằng?
Để trả lời những câu hỏi này, chúng ta phải hiểu rõ hơn về điều mà EU đang cố gắng quy định. Trí tuệ nhân tạo là gì? Một câu nói châm biếm gần đây nói rằng AI không phải là thông minh và cũng không phải là nhân tạo. Đúng là AI là “thực” và hiện hữu, nhưng không có gì quan trọng hơn trong việc quy định nó so với sự nhân tạo—sự xây dựng. Và ở đây là nơi chúng ta đều đang đối mặt với nguy cơ bị Quốc hội Châu Âu lạc lõng.
Trong phiên bản hiện tại của AIA, định nghĩa về Trí tuệ Nhân tạo (AI) khá rộng: “phần mềm được phát triển bằng một hoặc nhiều kỹ thuật và phương pháp được liệt kê trong Phụ lục I và có thể, với một tập hợp xác định các mục tiêu do con người đặt ra, tạo ra các đầu ra như nội dung, dự đoán, đề xuất hoặc quyết định ảnh hưởng đến môi trường mà chúng tương tác.” Tuy nhiên, đây có thể đã là một định nghĩa quá hẹp về AI, đặc biệt là đối với mục tiêu chính của AIA—đảm bảo rằng quyết định được thực hiện bởi hoặc với máy móc phải được thực hiện một cách tốt, minh bạch và có trách nhiệm con người rõ ràng, ít nhất là nếu những quyết định đó quan trọng.
Thật không may, khoảng một nửa số quốc gia thành viên của EU đang phản đối định nghĩa rộng này. Trong một bản thảo “thỏa thuận chủ tịch” mới, những quốc gia này đề xuất một định nghĩa hẹp hơn về trí tuệ nhân tạo, với hai yêu cầu bổ sung: hệ thống phải có khả năng “học, lý luận hoặc mô hình hóa được thực hiện bằng các kỹ thuật và phương pháp” được liệt kê trong một phụ lục, và nó cũng là một “hệ thống tạo sinh,” ảnh hưởng trực tiếp đến môi trường của nó.
Định nghĩa này được gọi là “thỏa thuận,” nhưng thực sự đã bị làm tổn thương. Đặc biệt là với việc các mô hình tạo sinh là một lớp đặc biệt của học máy, định nghĩa này làm cho nó quá dễ để tranh cãi lâu dài tại tòa án để loại trừ một hệ thống khỏi sự xem xét của AIA, và do đó khỏi sự giám sát và bảo vệ mà AIA được thiết kế để đảm bảo.
Ai sẽ muốn những thay đổi như vậy? Có thể kể đến Google. Hiện nay, Google muốn bạn nghĩ rằng họ chỉ mới sử dụng AI vài năm, thay vì nhớ rằng sản phẩm cốt lõi của công ty, tìm kiếm, đã được định nghĩa là trái tim của AI từ những năm 1970. Năm 2020, tôi tham gia một bảng thảo luận với Daniel Schoenberger, người làm việc về vấn đề pháp lý cho Google và người ủng hộ mạnh mẽ việc chỉ quy regul chính là AI nguy hiểm nhất. Schoenberger mô tả đó như bất kỳ AI nào dựa trên một thuật toán học máy mới ít hơn 24 tháng, sau đó anh ta đã sửa lại thành 18 tháng. Tôi cũng vừa mới được một quan chức công dân Đức cấp cao nói với tôi rằng chúng ta chỉ nên lo lắng đặc biệt về các hệ thống “tự học,” vì chúng khó dự đoán hơn do tính chất “tự tối ưu hóa” của chúng. Do đó, tất cả các nguồn lực về quy định và thi hành pháp luật nên được tung hết vào chúng.
Việc hạn chế định nghĩa của Trí tuệ Nhân tạo chỉ đến “học máy” phức tạp hoặc các quy luật “thông thường được hiểu” là thông tin. Điều này không chỉ tạo ra một mà là hai cách mà những người xây dựng hoặc vận hành AI có thể tránh được kiểm soát mà AIA được thiết kế để cung cấp, điều mà mọi thị trường đều cần đối với bất kỳ quy trình và sản phẩm có nguy cơ tiềm ẩn nào. AIA được thiết kế để khuyến khích sự rõ ràng và quản trị tốt, nhưng định nghĩa phức tạp hơn về AI khuyến khích sự phức tạp hoặc không có quản trị. Ở cả hai trường hợp, có thể tránh được sự giám sát.
Một công ty có thể chọn kiến trúc hệ thống tối ưu nhất, không minh bạch nhất có thể, khẳng định (đúng theo định nghĩa tồi tệ này) rằng đó là “nhiều AI hơn,” để truy cập danh prestige, đầu tư và sự hỗ trợ của chính phủ mà tuyên bố đó mang lại. Ví dụ, một mạng nơ-ron sâu khổng lồ có thể được giao nhiệm vụ không chỉ là học ngôn ngữ mà còn là làm cho ngôn ngữ đó trở nên công bằng trên một số tiêu chí, chẳng hạn như chủng tộc, giới tính và tầng lớp xã hội. Sau đó, có thể công ty cũng lẻn vào một chút chiều hướng để nó cũng chỉ đến các quảng cáo hoặc đảng chính trị ưa thích. Dưới cả hai hệ thống, điều này sẽ được gọi là AI, vì vậy chắc chắn nó sẽ rơi vào phạm vi của AIA. Nhưng liệu ai có thể đáng tin cậy xác định điều gì đang diễn ra với hệ thống này không? Dưới định nghĩa ban đầu của AIA, có một cách đơn giản hơn để hoàn thành công việc mà vẫn được coi là “AI,” và do đó sẽ không có những động cơ tương tự để sử dụng các hệ thống phức tạp có chủ ý.
Tất nhiên, dưới định nghĩa mới, một công ty cũng có thể chuyển sang sử dụng AI truyền thống hơn, chẳng hạn như các hệ thống dựa trên quy luật hoặc cây quyết định (hoặc chỉ là phần mềm thông thường). Và sau đó, nó sẽ được tự do làm bất cứ điều gì nó muốn—điều này không còn là AI nữa, và không còn quy định đặc biệt để kiểm tra cách hệ thống được phát triển hay nơi nó được áp dụng. Người lập trình có thể viết các hướng dẫn xấu, thất đạo một cách chủ ý hoặc chỉ là do sơ suất gây hại cho cá nhân hoặc cộng đồng. Dưới dự thảo của chính phủ mới, hệ thống này sẽ không còn được kiểm soát và quản lý bổ sung như trong dự thảo ban đầu của AIA. Tiện đây, con đường này cũng tránh được việc gặp rắc rối với nguồn lực thêm của cơ quan thi hành pháp luật mà AIA yêu cầu các quốc gia thành viên phải tài trợ để thi hành các yêu cầu mới của nó.
Giới hạn nơi mà AIA áp dụng bằng cách phức tạp hóa và hạn chế định nghĩa của AI có lẽ là một cố gắng giảm thiểu chi phí cho các biện pháp bảo vệ của nó đối với cả doanh nghiệp và chính phủ. Tất nhiên, chúng ta muốn giảm thiểu chi phí cho bất kỳ quy định hoặc quản trị nào—cả nguồn lực công cộng và tư nhân đều quý báu. Nhưng AIA đã làm điều đó, và làm điều đó một cách tốt hơn, an toàn hơn. Như đã đề xuất ban đầu, AIA đã chỉ áp dụng cho những hệ thống chúng ta thực sự cần phải lo lắng, điều đó là đúng như nên làm.
Trong phiên bản gốc của AIA, đa số lớn các hệ thống AI—như trong trò chơi máy tính, máy hút bụi, hoặc ứng dụng điện thoại thông minh tiêu chuẩn—được để lại cho luật sản phẩm thông thường và sẽ không phải chịu bất kỳ gánh nặng quy định mới nào cả. Hoặc nó chỉ đòi hỏi các nghĩa vụ minh bạch cơ bản; ví dụ, một chatbot nên xác định rằng nó là AI, không phải là một giao diện với con người thực sự.

Phần quan trọng nhất của AIA là nơi nó mô tả những loại hệ thống có thể nguy hiểm nếu tự động hóa. Sau đó, nó chỉ quy định những loại này. Cả hai dự thảo của AIA đều nói rằng có một số ít bối cảnh mà không có hệ thống AI nào nên hoạt động—ví dụ, nhận dạng cá nhân trong không gian công cộng từ dữ liệu sinh học của họ, tạo ra điểm tín dụng xã hội cho chính phủ, hoặc sản xuất đồ chơi khuyến khích hành vi nguy hiểm hoặc tự tổn thương. Tất cả đều bị cấm, hơn hay ít. Có nhiều lĩnh vực ứng dụng khác mà việc sử dụng AI đòi hỏi sự giám sát của chính phủ và con người khác: các tình huống ảnh hưởng đến kết quả quan trọng trong cuộc sống của con người, chẳng hạn như quyết định ai được nhận dịch vụ chính phủ nào, hoặc ai được vào trường nào hoặc được khen ngợi với khoản vay nào. Trong những ngữ cảnh này, cư dân châu Âu sẽ được cung cấp những quyền lợi cụ thể và chính phủ của họ sẽ có những nghĩa vụ cụ thể để đảm bảo rằng các tác phẩm đã được xây dựng và đang hoạt động đúng cách và công bằng.
Việc khiến cho AIA không áp dụng đối với một số hệ thống chúng ta cần phải lo lắng—như bản dự thảo “thỏa thuận chủ tịch” có thể làm—sẽ mở cửa cho tham nhũng và sơ suất. Nó cũng sẽ làm cho những điều hợp pháp mà Ủy ban Châu Âu đang cố gắng bảo vệ chúng ta khỏi, như các hệ thống tín dụng xã hội và nhận dạng khuôn mặt tổng quát trong không gian công cộng, miễn là một công ty có thể khẳng định hệ thống của mình không phải là AI “thực sự”.
Khi một thứ gì đó thực sự thông minh? Điều này tất nhiên phụ thuộc vào cách bạn định nghĩa thuật ngữ, hoặc, thực sự, định nghĩa nào trong số nhiều định nghĩa hiện có sẽ hữu ích nhất để triển khai trong cuộc trò chuyện bạn đang có ngay bây giờ.
Với mục đích của các công cụ quản lý kỹ thuật số như AIA, việc sử dụng một định nghĩa thông minh đã được thiết lập từ lâu, xuất phát từ sự khám phá đầu tiên của các nhà khoa học về nguồn gốc tiến hóa của đặc tính con người bằng cách nghiên cứu các loài khác: khả năng hành động hiệu quả phản ứng với ngữ cảnh thay đổi. Đá không có trí tuệ, cây có chút trí tuệ, ong có nhiều hơn, khỉ có nhiều hơn nữa. Trí tuệ theo định nghĩa này rõ ràng là một quá trình tính toán: chuyển đổi thông tin về thế giới thành một hành động nào đó. Định nghĩa này thông thường hữu ích vì nó nhắc nhở (hoặc giải thích cho) mọi người rằng trí tuệ không phải là một thuộc tính siêu nhiên, hoặc chỉ là “giống như con người,” mà thay vào đó là một quá trình vật lý chúng ta tìm thấy trong tự nhiên ở mức độ khác nhau. Nó nhắc nhở chúng ta rằng AI đòi hỏi cơ sở hạ tầng vật lý cũng như pháp lý. AI cần máy tính và truyền thông ít nhất cũng như cần dữ liệu và thuật toán. AI đòi hỏi năng lượng và vật liệu và tạo ra ô nhiễm và chất thải.
Bỏ qua định nghĩa, phần còn lại của AIA làm rõ rằng những gì người lập pháp quan tâm đối với AI là kết quả của nó. Chi tiết về cách tác phẩm thực hiện những nhiệm vụ này chỉ quan trọng đến mức độ nó quyết định khó khăn như thế nào để cung cấp minh bạch và duy trì trách nhiệm. Trong ngữ cảnh này, “việc tính toán hành động phù hợp từ ngữ cảnh” là định nghĩa tốt nhất của AI cho AIA vì nó không mắc kẹt trong chi tiết kỹ thuật mà thay vào đó cho phép tập trung vào hậu quả.
AIA—và thực sự tất cả các quy định sản phẩm, đặc biệt là đối với các hệ thống phức tạp—nên khuyến khích việc sử dụng chiến lược đơn giản nhất để thực hiện công việc tốt, bởi vì điều này tăng cơ hội rằng các hệ thống sẽ hoạt động và có thể duy trì được. Điều này thực sự tốt cho kinh doanh cũng như cho xã hội. “Tối đa hóa lợi nhuận” dễ dàng hơn nếu bạn có thể tiếp tục cung cấp sản phẩm của mình một cách đáng tin cậy, an toàn và lâu dài.
Loại bỏ một số hệ thống số khỏi xem xét dưới AIA chỉ vì chúng không phức tạp đủ có vẻ như là một cách để khuyến khích đơn giản hóa AI, nhưng thực tế học máy đôi khi có thể là cách rõ ràng, đơn giản và thanh lịch nhất để hoàn thành một dự án tốt. Đôi khi không. Tại sao thêm phần vấn đề cho việc phát hành một sản phẩm bằng cách chuyển gánh nặng quy định một cách đáng kể nếu và khi bạn thực hiện một thay đổi đơn giản trong cách tiếp cận thuật toán?
Nếu chúng ta chọn định nghĩa đơn giản, rộng lớn về trí tuệ mà tôi đề xuất ở đây, thì chúng ta khuyến khích mọi người sử dụng phiên bản trí tuệ nhân tạo rõ ràng, dễ giải thích và dễ bảo trì nhất có thể, hoặc thậm chí chỉ là phần mềm thông thường. Điều này mang lại lợi ích cho tất cả mọi người—cả doanh nghiệp và nhà phát triển cũng như công dân, cư dân và nhà hoạt động. Chúng ta vẫn có thể viết tiểu thuyết và triết học về những phiên bản tuyệt vời của trí tuệ mà hội tụ hoặc rời rạc khỏi trí tuệ của con người theo cách thú vị. Nhưng khi viết luật, hãy rộng lớn và bao dung đủ để giúp chúng ta giữ cho các thiết bị và hệ thống của chúng ta an toàn cho xã hội chúng ta.
Nhiều Bài viết Tuyệt vời Khác của Mytour
- 📩 Tin mới nhất về công nghệ, khoa học và nhiều hơn nữa: Nhận những bản tin của chúng tôi!
- Lái xe khi đã hút chất kích thích? Bên trong cuộc tìm kiếm công nghệ cao
- Bạn (có thể) cần một bằng sáng chế cho con voi tuyết của bạn
- Trí tuệ nhân tạo của Sony lái một chiếc xe đua như một nhà vô địch
- Làm thế nào để bán chiếc smartwatch hoặc thiết bị theo dõi sức khỏe cũ của bạn
- Bên trong phòng thí nghiệm nơi Intel cố gắng hack chính các vi chip của mình
- 👁️ Khám phá trí tuệ nhân tạo như chưa bao giờ với cơ sở dữ liệu mới của chúng tôi
- 🏃🏽♀️ Bạn muốn có công cụ tốt nhất để trở nên khỏe mạnh? Hãy kiểm tra bộ chọn của đội ngũ Gear chúng tôi cho những chiếc thiết bị theo dõi sức khỏe tốt nhất, đồ chạy bộ (bao gồm giày dép và tất), và tai nghe tốt nhất
