Hệ Thống Trí Tuệ Nhân Tạo Sáng Tạo Không Chỉ Là Nguồn Mở Hoặc Đóng

Gần đây, một tài liệu bị rò rỉ, được cho là từ Google, khẳng định rằng trí tuệ nhân tạo nguồn mở sẽ vượt qua Google và OpenAI. Sự rò rỉ đưa ra trước những cuộc trò chuyện liên tục trong cộng đồng trí tuệ nhân tạo về cách một hệ thống trí tuệ nhân tạo và nhiều thành phần của nó nên được chia sẻ với những nhà nghiên cứu và công chúng. Ngay cả với loạt các hệ thống trí tuệ nhân tạo sáng tạo gần đây, vấn đề này vẫn chưa được giải quyết.
Nhiều người nghĩ về vấn đề này như một câu hỏi nhị phân: Hệ thống có thể là nguồn mở hoặc đóng. Sự phát triển mở giảm quyền lực để nhiều người có thể cùng nhau làm việc trên các hệ thống trí tuệ nhân tạo để đảm bảo chúng phản ánh nhu cầu và giá trị của họ, như thấy trong dự án BLOOM của BigScience. Mặc dù tính mở cho phép nhiều người đóng góp vào nghiên cứu và phát triển trí tuệ nhân tạo, nhưng khả năng gây hại và lạm dụng, đặc biệt từ các đối tác độc hại, tăng lên với sự truy cập nhiều hơn. Các hệ thống nguồn đóng, như bản phát hành LaMDA ban đầu của Google, được bảo vệ khỏi các tác nhân bên ngoài tổ chức phát triển nhưng không thể được kiểm tra hoặc đánh giá bởi các nhà nghiên cứu bên ngoài.
Tôi đã đứng đầu và nghiên cứu về việc phát hành hệ thống trí tuệ nhân tạo sáng tạo, bao gồm cả GPT-2 của OpenAI, kể từ khi những hệ thống này đầu tiên trở nên phổ biến và sẵn sàng sử dụng rộng rãi. Hiện nay, tôi tập trung vào xem xét đạo đức về tính minh bạch tại Hugging Face. Làm việc này, tôi đã nghĩ về mã nguồn mở và nguồn đóng cửa như là hai đầu của một dải lựa chọn để phát hành hệ thống trí tuệ nhân tạo sáng tạo, thay vì một câu hỏi đơn giản là có hoặc không.
Ở một đầu cực của dải là những hệ thống đóng cửa đến mức mà chúng không được biết đến công chúng. Khó để trích dẫn bất kỳ ví dụ cụ thể nào về điều này, vì những lý do rõ ràng. Nhưng chỉ một bước vượt qua trên dải, những hệ thống đóng cửa được công bố công khai ngày càng trở nên phổ biến đối với các modalities mới, như tạo video. Bởi vì tạo video là một phát triển tương đối mới, có ít nghiên cứu và thông tin về các rủi ro mà nó đưa ra và cách tốt nhất để giảm nhẹ chúng. Khi Meta công bố mô hình Make-a-Video của mình vào tháng 9 năm 2022, họ đề cập đến lo ngại như sự dễ dàng mà bất kỳ ai cũng có thể tạo ra nội dung có vẻ thực tế và đầy rủi ro như lý do để không chia sẻ mô hình. Thay vào đó, Meta tuyên bố rằng họ sẽ dần dần cho phép truy cập cho các nhà nghiên cứu.
Ở giữa dải là những hệ thống mà người dùng thông thường nhất quen thuộc. Cả ChatGPT và Midjourney, ví dụ, là những hệ thống được truy cập công khai nơi tổ chức phát triển, OpenAI và Midjourney tương ứng, chia sẻ mô hình thông qua một nền tảng để công chúng có thể khích lệ và tạo ra đầu ra. Với sự tiếp cận rộng rãi của họ và giao diện không cần mã, những hệ thống này đã chứng minh là cả hữu ích và nguy hiểm. Trong khi chúng có thể cho phép nhận xét hơn so với một hệ thống đóng cửa, vì những người ngoài tổ chức chủ nhân có thể tương tác với mô hình, những người ngoài tổ chức đó có thông tin hạn chế và không thể nghiên cứu mô hình một cách mạnh mẽ bằng cách đánh giá dữ liệu huấn luyện hoặc mô hình chính nó, ví dụ như.
Ở đầu còn lại của dải, một hệ thống hoàn toàn mở khi tất cả các thành phần, từ dữ liệu huấn luyện đến mã nguồn đến chính mô hình, đều hoàn toàn mở và có thể truy cập bởi mọi người. Trí tuệ nhân tạo sáng tạo được xây dựng trên nghiên cứu mở và bài học từ những hệ thống đầu tiên như BERT của Google, mà hoàn toàn mở. Ngày nay, các hệ thống hoàn toàn mở được sử dụng nhiều nhất được đưa ra bởi các tổ chức tập trung vào sự dân chủ hóa và minh bạch. Các sáng kiến do Hugging Face (nơi tôi đóng góp) tổ chức—như BigScience và BigCode, đồng lãnh đạo với ServiceNow—và các tập thể phi tập trung như EleutherAI hiện nay là những trường hợp nghiên cứu phổ biến để xây dựng các hệ thống mở để bao gồm nhiều ngôn ngữ và dân tộc trên toàn thế giới.
Không có phương pháp phát hành an toàn xác định hoặc bộ tiêu chuẩn phát hành chuẩn. Cũng không có tổ chức chính thức nào để đặt tiêu chuẩn. Các hệ thống trí tuệ nhân tạo sáng tạo đầu tiên như ELMo và BERT chủ yếu mở cho đến khi GPT-2 được phát hành theo giai đoạn vào năm 2019, điều này đã khơi mào cuộc thảo luận mới về việc triển khai những hệ thống ngày càng mạnh mẽ một cách có trách nhiệm, chẳng hạn như những nghĩa vụ phát hành hoặc xuất bản nên là gì. Kể từ đó, các hệ thống trên các modalities, đặc biệt là từ các tổ chức lớn, đã chuyển hướng về sự đóng cửa, gây lo ngại về sự tập trung quyền lực trong các tổ chức có nguồn lực cao có khả năng phát triển và triển khai những hệ thống này.
Trong tình trạng thiếu tiêu chuẩn rõ ràng cho triển khai và giảm nhẹ rủi ro, những người quyết định phát hành phải cân nhắc về các sự đánh đổi của các lựa chọn khác nhau. Một khung cảnh dải màu có thể giúp nhà nghiên cứu, người triển khai, nhà hoạch định chính sách và người dùng trí tuệ nhân tạo bình thường phân tích một cách có hệ thống quyền truy cập và đưa ra quyết định phát hành tốt hơn, bằng cách đẩy họ vượt qua cách tiếp cận nhị phân mở hoặc đóng.
Tất cả các hệ thống đều đòi hỏi nghiên cứu và biện pháp an toàn, bất kể chúng có mở cửa đến đâu. Không có hệ thống nào là hoàn toàn vô hại hoặc không chủ quan. Các hệ thống đóng thường trải qua nghiên cứu nội bộ trước khi được phát hành rộng rãi. Các hệ thống có thể truy cập thông qua API có thể có bộ biện pháp an toàn riêng, chẳng hạn như giới hạn số câu hỏi có thể thực hiện để tránh spam quy mô lớn. Và các hệ thống mở đòi hỏi các biện pháp an toàn như Các Giấy Phép Trí Tuệ Nhân Tạo Trách Nhiệm nữa. Nhưng những quy định kỹ thuật như vậy không phải là viên đạn bạch kim, đặc biệt là đối với những hệ thống mạnh mẽ hơn. Chính sách và hướng dẫn của cộng đồng, như chính sách kiểm soát nội dung của các nền tảng, cũng củng cố an toàn. Chia sẻ nghiên cứu và bài học về an toàn giữa các phòng thí nghiệm cũng có thể là một lợi ích. Và các tổ chức như Trung tâm Nghiên cứu về Mô Hình Nền của Đại học Stanford và Đối tác về Trí Tuệ Nhân Tạo có thể giúp đánh giá mô hình ở các cấp độ khác nhau của sự mở cửa và dẫn đầu cuộc thảo luận về các quy định.
Công việc AI đạo đức và an toàn có thể diễn ra ở bất kỳ nơi nào trên dải mở đến đóng. Quan trọng là các phòng thí nghiệm đánh giá các hệ thống trước khi triển khai và quản lý rủi ro sau khi phát hành. Dải màu có thể giúp họ suy nghĩ qua quyết định này. Hệ thống này mô tả đúng hơn cảnh quan trí tuệ nhân tạo, và nó có thể cải thiện cuộc trò chuyện về việc phát hành bằng cách thêm vào một số tinh tế cần thiết.
Ý KIẾN MYTOUR đăng bài viết của các động góp từ các tác giả bên ngoài đại diện cho nhiều quan điểm khác nhau. Đọc thêm ý kiến tại đây. Gửi bài op-ed tại [email protected].
