
Nhà Trắng đã đạt được thỏa thuận với các nhà phát triển trí tuệ nhân tạo lớn—bao gồm Amazon, Google, Meta, Microsoft và OpenAI—cam kết họ sẽ thực hiện các biện pháp để ngăn chặn việc phát hành các mô hình trí tuệ nhân tạo có hại ra thế giới.
Theo thỏa thuận, mà Nhà Trắng gọi là “cam kết tự nguyện,” các công ty cam kết thực hiện các kiểm thử nội bộ và cho phép kiểm tra ngoại vi của các mô hình trí tuệ nhân tạo mới trước khi chúng được công khai. Kiểm thử sẽ tìm kiếm các vấn đề bao gồm đầu ra có độ chệch hoặc phân biệt đối xử, nhược điểm an ninh mạng và rủi ro gây hại cho xã hội rộng lớn. Các công ty khởi nghiệp Anthropic và Inflection, cả hai đều là nhà phát triển của các đối thủ đáng chú ý với ChatGPT của OpenAI, cũng tham gia vào thỏa thuận.
“Các công ty có trách nhiệm đảm bảo rằng sản phẩm của họ là an toàn trước khi giới thiệu chúng cho công chúng bằng cách kiểm thử an toàn và khả năng của hệ thống trí tuệ nhân tạo của họ,” Ben Buchanan, cố vấn đặc biệt về trí tuệ nhân tạo của Nhà Trắng, nói với các phóng viên trong cuộc họp báo hôm qua. Những rủi ro mà các công ty được yêu cầu chú ý bao gồm vi phạm quyền riêng tư và thậm chí là đóng góp tiềm ẩn cho mối đe dọa sinh học. Các công ty cũng cam kết công khai báo cáo về những hạn chế của hệ thống của họ và các rủi ro về an ninh và xã hội mà chúng có thể đặt ra.
Hiệp định cũng nói rằng các công ty sẽ phát triển các hệ thống watermarking giúp người dễ dàng nhận diện âm thanh và hình ảnh được tạo ra bởi trí tuệ nhân tạo. OpenAI đã thêm watermark vào hình ảnh được tạo ra bởi trình tạo hình ảnh Dall-E của mình, và Google đã nói rằng họ đang phát triển công nghệ tương tự cho hình ảnh được tạo ra bởi trí tuệ nhân tạo. Việc giúp người phân biệt điều gì là thật và điều gì là giả mạo là một vấn đề ngày càng phức tạp khi các chiến dịch chính trị dường như đang chuyển sang sử dụng trí tuệ nhân tạo tạo sinh trước cuộc bầu cử tại Hoa Kỳ năm 2024.
Những tiến bộ gần đây trong các hệ thống trí tuệ nhân tạo tạo sinh văn bản hoặc hình ảnh đã kích thích một cuộc đua vũ trụ trí tuệ nhân tạo mới giữa các công ty đang điều chỉnh công nghệ cho nhiệm vụ như tìm kiếm web và viết thư giới thiệu. Nhưng các thuật toán mới cũng gây ra lo ngại tái xuất về việc trí tuệ nhân tạo củng cố các hệ thống xã hội độc đoán như sexisme hoặc chủ nghĩa phân biệt chủng tộc, tăng cường thông tin sai lệch trong bầu cử, hoặc trở thành công cụ cho tội phạm mạng. Do đó, các cơ quan quản lý và lập pháp ở nhiều nơi trên thế giới—bao gồm cả Washington, DC—đã tăng cường yêu cầu về quy định mới, bao gồm yêu cầu đánh giá trí tuệ nhân tạo trước khi triển khai.
Không rõ hiệp định sẽ thay đổi cách các công ty trí tuệ nhân tạo lớn hoạt động như thế nào. Hiện nay, sự nhận thức ngày càng cao về các khía cạnh tiêu cực của công nghệ đã làm cho việc thuê người làm việc trong lĩnh vực chính sách và kiểm thử trí tuệ nhân tạo trở nên phổ biến. Google có nhóm kiểm thử hệ thống của mình và công bố một số thông tin, như các trường hợp sử dụng dự kiến và xem xét về đạo đức đối với một số mô hình trí tuệ nhân tạo. Meta và OpenAI đôi khi mời các chuyên gia ngoại vi để thử nghiệm và phá vỡ mô hình của họ trong một phương pháp được gọi là kiểm thử đỏ.
“Dẫn dắt bởi những nguyên tắc bền vững về an toàn, an ninh và niềm tin, những cam kết tự nguyện đề cập đến những rủi ro do các mô hình trí tuệ nhân tạo tiên tiến đặt ra và thúc đẩy việc áp dụng các thực hành cụ thể—như kiểm thử đỏ và công bố báo cáo minh bạch—điều này sẽ thúc đẩy toàn bộ hệ sinh thái phát triển,” Chủ tịch Microsoft Brad Smith nói trong một bài đăng trên blog.
Những rủi ro xã hội tiềm ẩn mà hiệp định cam kết công ty phải theo dõi không bao gồm dấu chân carbon của việc huấn luyện các mô hình trí tuệ nhân tạo, một mối quan ngại mà hiện đang được phổ biến trong nghiên cứu về tác động của các hệ thống trí tuệ nhân tạo. Việc tạo ra một hệ thống như ChatGPT có thể đòi hỏi hàng nghìn bộ xử lý máy tính công suất cao, hoạt động trong thời gian kéo dài.
Andrew Burt, đối tác quản lý tại công ty luật BNH, chuyên về trí tuệ nhân tạo, nói rằng rủi ro tiềm ẩn của các hệ thống trí tuệ nhân tạo tạo sinh đang trở nên rõ ràng với tất cả mọi người liên quan đến công nghệ. Ủy ban Thương mại Liên bang bắt đầu điều tra về thực hành kinh doanh của OpenAI vào tuần trước, cáo buộc rằng công ty tham gia vào các “thực hành bảo mật dữ liệu hoặc quyền riêng tư không công bằng hoặc lừa dối.”
Quy định trong hiệp định của Nhà Trắng cho biết các công ty nên ủy quyền việc đánh giá ngoại vi về công nghệ của họ thêm vào bằng chứng chứng minh rằng kiểm tra từ bên ngoại đang trở thành “phương tiện trung ương mà chính phủ thực hiện giám sát đối với các hệ thống trí tuệ nhân tạo,” theo Burt nói.
Nhà Trắng cũng đẩy mạnh việc sử dụng kiểm tra trong Hiến pháp Tự nguyện về Trí tuệ Nhân tạo được ban hành năm ngoái, và nó đang hỗ trợ cuộc thi hack xoay quanh các mô hình trí tuệ nhân tạo tạo sinh tại hội nghị an ninh Defcon trong tháng tới. Việc kiểm tra cũng là một yêu cầu của Đạo luật Trí tuệ Nhân tạo toàn diện của EU, hiện đang được hoàn thiện.
Jacob Appel, chiến lược gia chính tại ORCAA, một công ty kiểm tra thuật toán cho doanh nghiệp và chính phủ, nói rằng thỏa thuận là một điều khách mời nhưng đánh giá chung về các mô hình ngôn ngữ lớn như những mô hình đằng sau ChatGPT là không đủ. Các trường hợp sử dụng cụ thể, có rủi ro cao của trí tuệ nhân tạo, như một chatbot được điều chỉnh chính xác để tạo ra tư vấn y tế hoặc pháp lý, nên có đánh giá tùy chỉnh riêng cho họ, anh ta nói. Và các hệ thống từ các công ty nhỏ cũng cần được kiểm tra kỹ lưỡng.
Tổng thống Joe Biden sẽ gặp gỡ tại Nhà Trắng hôm nay với các nhà quản lý từ các công ty tham gia thỏa thuận trí tuệ nhân tạo mới, bao gồm Giám đốc điều hành Anthropic Dario Amodei, Chủ tịch Microsoft Brad Smith và Giám đốc điều hành Inflection AI Mustafa Suleyman. Chính phủ của ông cũng đang phát triển một sắc lệnh hành pháp để quản lý việc sử dụng trí tuệ nhân tạo thông qua các hành động của các cơ quan liên bang, nhưng Nhà Trắng không đưa ra lịch trình cụ thể cho việc phát hành nó.
Cập nhật 21-7-2023, 2:20 chiều EDT: Bài viết này đã được cập nhật với nhận xét từ Jacob Appel tại ORCAA.
