Chúng tôi đã áp dụng lý thuyết trò chơi để xác định những dự án Trí tuệ Nhân tạo nên được quy định
Kể từ khi Trí tuệ Nhân tạo (AI) chuyển từ lý thuyết sang hiện thực, các trung tâm nghiên cứu và phát triển trên khắp thế giới đã nhanh chóng đua nhau để tìm ra bước đột phá mới của AI.
Cuộc cạnh tranh này đôi khi được gọi là “cuộc đua AI”. Tuy nhiên, thực tế cho thấy có hàng trăm “cuộc đua AI” hướng đến các mục tiêu khác nhau. Một số trung tâm nghiên cứu đang đua nhau để sản xuất trí tuệ nhân tạo cho quảng cáo số, ví dụ, trong khi những người khác đua nhau để kết hợp trí tuệ nhân tạo với vũ khí quân sự. Một số cuộc đua diễn ra giữa các công ty tư nhân và những cuộc đua khác diễn ra giữa các quốc gia.
Do các nhà nghiên cứu AI đang cạnh tranh để chiến thắng trong cuộc đua mà họ chọn, họ có thể bỏ qua những quan ngại về an toàn để vượt qua đối thủ. Tuy nhiên, việc thực hiện an toàn thông qua quy định vẫn chưa được phát triển, và sự miễn cưỡng trong việc quy định AI thực sự có thể được chứng minh: nó có thể làm suy giảm sự đổi mới, giảm bớt những lợi ích mà AI có thể mang lại cho nhân loại.
Nghiên cứu gần đây của chúng tôi, thực hiện cùng với đồng nghiệp Francisco C. Santos, nhằm xác định những cuộc đua AI nào nên được quy định vì lý do an toàn, và những cuộc đua nào nên để không được quy định để tránh làm suy giảm đổi mới. Chúng tôi đã thực hiện điều này thông qua một mô phỏng lý thuyết trò chơi.
Ưu thế Trí tuệ Nhân tạo
TNW Conference 2024 - Mời tất cả các Startup tham gia vào ngày 20-21 tháng 6
Trình bày Startup của bạn trước nhà đầu tư, những người tạo ra thay đổi và khách hàng tiềm năng với các gói Startup được chọn lọc của chúng tôi.
Quy định về Trí tuệ Nhân tạo phải xem xét đến các tổn thất và lợi ích của công nghệ. Các tổn thất mà quy định có thể cố gắng lập luật chống lại bao gồm khả năng của AI phân biệt đối xử đối với cộng đồng có hoàn cảnh khó khăn và sự phát triển của vũ khí tự động. Nhưng những lợi ích của AI, như chẩn đoán ung thư tốt hơn và mô phỏng khí hậu thông minh, có thể không tồn tại nếu quy định về AI quá chặt chẽ. Quy định AI có trách nhiệm sẽ tối đa hóa những lợi ích của nó và giảm thiểu những tổn thất của nó.
Nhưng với Hoa Kỳ cạnh tranh với Trung Quốc và Nga để đạt được “ưu thế Trí tuệ Nhân tạo” – một ưu thế công nghệ rõ ràng trước đối thủ – quy định cho đến nay đã ở phía sau. Điều này, theo Liên Hợp Quốc, đã đẩy chúng ta vào “lãnh thổ đạo đức không chấp nhận được”.
Nhà nghiên cứu AI và các tổ chức quản lý, như EU, đã kêu gọi quy định khẩn cấp để ngăn chặn sự phát triển của AI không đạo đức. Tuy nhiên, bảng trắng của EU về vấn đề này đã thừa nhận rằng đối với các tổ chức quản lý là khó để biết cuộc đua AI nào sẽ kết thúc với AI không đạo đức, và cuộc đua nào sẽ kết thúc với AI có lợi ích.
Nhìn vào tương lai
Chúng tôi muốn biết cuộc đua AI nào nên được ưu tiên quy định, vì vậy đội ngũ của chúng tôi đã tạo mô hình lý thuyết để mô phỏng các cuộc đua AI giả tưởng. Sau đó, chúng tôi đã chạy mô phỏng này trong hàng trăm lần lặp, điều chỉnh biến số để dự đoán cách cuộc đua AI thực tế có thể diễn ra.
Mô hình của chúng tôi bao gồm một số tác nhân ảo, đại diện cho các đối thủ trong cuộc đua Trí tuệ Nhân tạo - như các công ty công nghệ khác nhau, ví dụ. Mỗi tác nhân được gán ngẫu nhiên một hành vi, mô phỏng cách những đối thủ này sẽ hành vi trong một cuộc đua Trí tuệ Nhân tạo thực tế. Ví dụ, một số tác nhân xem xét cẩn thận tất cả dữ liệu và những nguy cơ của Trí tuệ Nhân tạo, nhưng những người khác đưa ra những rủi ro không cần thiết bằng cách bỏ qua những thử nghiệm này.
Chính mô hình này dựa trên lý thuyết trò chơi tiến hóa, đã được sử dụng trong quá khứ để hiểu cách các hành vi phát triển trên quy mô của xã hội, con người, hoặc thậm chí là gen của chúng ta. Mô hình giả định rằng người chiến thắng trong một trò chơi cụ thể - trong trường hợp của chúng tôi là cuộc đua Trí tuệ Nhân tạo - đạt được tất cả các lợi ích, như những người chuyên gia sinh học khẳng định xảy ra trong quá trình tiến hóa.
Bằng cách giới thiệu quy định vào mô phỏng của chúng tôi - xử phạt hành vi không an toàn và thưởng hành vi an toàn - chúng tôi sau đó có thể quan sát xem quy định nào đã thành công trong việc tối đa hóa lợi ích, và quy định nào kết thúc bằng cách làm suy giảm đổi mới.
Bài học về quản lý
Biến số chúng tôi phát hiện quan trọng đặc biệt là “độ dài” của cuộc đua - thời gian mà các cuộc đua giả tưởng của chúng tôi mất để đạt được mục tiêu của họ (một sản phẩm Trí tuệ Nhân tạo hoạt động). Khi các cuộc đua Trí tuệ Nhân tạo đạt được mục tiêu của mình nhanh chóng, chúng tôi phát hiện rằng những đối thủ mà chúng tôi đã mã hóa luôn luôn bỏ qua các biện pháp an toàn luôn luôn chiến thắng.
Trong những cuộc đua Trí tuệ Nhân tạo nhanh chóng này, hay “sprint Trí tuệ Nhân tạo”, ưu thế cạnh tranh được đạt được bằng cách làm mọi thứ nhanh chóng, và những người dừng lại để xem xét an toàn và đạo đức luôn luôn thất bại. Việc quy định những cuộc đua Trí tuệ Nhân tạo này để đảm bảo rằng sản phẩm Trí tuệ Nhân tạo kết thúc an toàn và có đạo đức có ý nghĩa.
Ngược lại, mô phỏng của chúng tôi cho thấy rằng dự án Trí tuệ Nhân tạo dài hạn, hay “marathon Trí tuệ Nhân tạo”, không cần quy định gấp. Điều này bởi vì những người chiến thắng của marathon Trí tuệ Nhân tạo không phải lúc nào cũng là những người bỏ qua an toàn. Hơn nữa, chúng tôi phát hiện rằng quy định về marathon Trí tuệ Nhân tạo đã ngăn chúng đạt được tiềm năng của mình. Điều này trông giống như làm chặn quá mức - loại quy định có thể thực sự ngược lại lợi ích của xã hội.
Dựa trên những phát hiện này, sẽ quan trọng khi các cơ quan quản lý xác định thời gian cuộc đua Trí tuệ Nhân tạo khác nhau dự kiến sẽ kéo dài bao lâu, áp dụng các quy định khác nhau dựa trên quy mô thời gian dự kiến của chúng. Các phát hiện của chúng tôi gợi ý rằng một quy tắc cho tất cả các cuộc đua Trí tuệ Nhân tạo - từ các cuộc chạy nhanh đến marathon - sẽ dẫn đến một số kết quả không lý tưởng.

Bài viết này của The Anh Han, Giáo sư, Khoa Học Máy Tính, Đại học Teesside; Luís Moniz Pereira, Giáo sư hưu trí, Khoa Học Máy Tính, Đại học Quốc gia Nova de Lisboa, và Tom Lenaerts, Giáo sư, Khoa Học, Đại học tự do Brussels (ULB), được tái xuất bản từ The Conversation theo giấy phép Creative Commons. Đọc bài viết gốc.
