Trí tuệ nhân tạo ngày càng bị lạm dụng là một mối quan tâm lớn của các nhà phát triển và nhà lập pháp trên toàn cầu.
Mười tám quốc gia, trong đó có cả Mỹ và Anh, đã cùng nhau tạo ra một bộ nguyên tắc để giải quyết những lo ngại về sự nguy hiểm của trí tuệ nhân tạo nếu rơi vào tay của những kẻ độc hại.
Tài liệu dài 20 trang đề cập đến một số biện pháp bảo vệ để đảm bảo sự phát triển của trí tuệ nhân tạo được tiến hành có trách nhiệm, bao gồm yêu cầu các công ty công nghệ phải “phát triển và triển khai nó theo cách giúp bảo vệ khách hàng và người dùng nói chung khỏi việc bị lạm dụng”. Ngoài Mỹ và Anh, các quốc gia khác đã ký văn bản này bao gồm Đức, Ý, Cộng hòa Séc, Estonia, Ba Lan, Úc, Chile, Israel, Nigeria và Singapore.
Thỏa thuận chi tiết về cách bảo vệ trí tuệ nhân tạo khỏi các cuộc tấn công của tin tặc và bao gồm các đề xuất về việc các công ty nên tiến hành thử nghiệm bảo mật phù hợp trước khi triển khai mô hình của họ.
Tuy nhiên, theo Reuters, tài liệu này không đề cập đến các vấn đề gây tranh cãi như việc thu thập dữ liệu cho các mô hình trí tuệ nhân tạo. Có nhiều cáo buộc đã được đưa ra về vấn đề này, vì vậy nhiều người hy vọng rằng các cơ quan quản lý và nhà lập pháp sẽ sớm can thiệp để giải quyết vấn đề này một cách toàn diện.
Được mô tả là thỏa thuận toàn cầu đầu tiên về an toàn trí tuệ nhân tạo, Nguyên tắc Phát triển AI An toàn nhấn mạnh vai trò của các nhà phát triển AI trong việc đảm bảo phần mềm của họ có trách nhiệm hơn. Tài liệu cũng kêu gọi tất cả các bên liên quan, bao gồm các nhà khoa học dữ liệu, nhà phát triển, nhà quản lý, người ra quyết định và chủ sở hữu rủi ro, phải tuân thủ các đề xuất để đưa ra quyết định có trách nhiệm về thiết kế, phát triển, triển khai và vận hành hệ thống trí tuệ nhân tạo của họ.
Cơ quan An ninh Cơ sở hạ tầng và An ninh mạng Hoa Kỳ (CISA) đã đánh giá cao bước tiến này. Trong một thông báo, Giám đốc CISA Jen Easterly nhấn mạnh rằng AI không chỉ nên có 'các tính năng thú vị' mà còn phải giảm thiểu các chi phí, vì điều đó có thể gây ra tác động phụ nguy hiểm trong dài hạn.
Ngay trước khi thỏa thuận này được ký kết, một số quốc gia đã bắt đầu xây dựng các quy tắc về cách các công ty như Google và OpenAI nên tự điều chỉnh quá trình phát triển trí tuệ nhân tạo.
Trước đó, Pháp, Đức và Ý gần đây đã đạt được thỏa thuận về 'sự tự điều chỉnh bắt buộc thông qua các quy tắc ứng xử', trong khi chính quyền Biden ở Mỹ đã ban hành một sắc lệnh hành pháp nhằm giảm thiểu rủi ro mà việc phát triển trí tuệ nhân tạo không được kiểm soát có thể gây ra cho an ninh quốc gia.