Trí Tuệ Nhân Tạo Ngày Càng Mạnh Mẽ—Nhưng Cũng Ngày Càng Bí Ẩn

Khi OpenAI công bố chi tiết về mô hình ngôn ngữ trí tuệ nhân tạo GPT-4 có khả năng đáng kinh ngạc, động cơ của ChatGPT, vào tháng 3, các nhà nghiên cứu đã điền đầy 100 trang. Họ cũng bỏ sót một số chi tiết quan trọng—như bất cứ điều gì quan trọng về cách nó thực sự được xây dựng hoặc hoạt động.
Điều đó không phải là một sơ suất ngẫu nhiên, tất nhiên. OpenAI và các công ty lớn khác đều muốn giữ bí mật về cách hoạt động của những thuật toán quý giá nhất của họ, một phần là vì sợ rằng công nghệ có thể bị lạm dụng, nhưng cũng từ lo ngại về việc mang lại lợi thế cho đối thủ cạnh tranh.

Một nghiên cứu được công bố bởi các nhà nghiên cứu tại Đại học Stanford tuần này cho thấy độ sâu—và có thể là nguy hiểm—của sự bí mật xung quanh GPT-4 và các hệ thống trí tuệ nhân tạo tiên tiến khác. Một số nhà nghiên cứu trí tuệ nhân tạo mà tôi đã nói chuyện nói rằng chúng ta đang trong thời kỳ chuyển đổi cơ bản về cách trí tuệ nhân tạo được theo đuổi. Họ lo sợ rằng đây là một sự thay đổi làm cho lĩnh vực ít có khả năng tạo ra những tiến bộ khoa học, cung cấp ít sự chịu trách nhiệm, và giảm độ tin cậy và an toàn.
Nhóm nghiên cứu tại Stanford đã đánh giá 10 hệ thống trí tuệ nhân tạo khác nhau, chủ yếu là các mô hình ngôn ngữ lớn như những mô hình đằng sau ChatGPT và các chatbot khác. Các mô hình này bao gồm các mô hình thương mại phổ biến như GPT-4 từ OpenAI, PaLM 2 tương tự từ Google, và Titan Text từ Amazon. Báo cáo cũng khảo sát các mô hình do các startup cung cấp, bao gồm Jurassic-2 từ AI21 Labs, Claude 2 từ Anthropic, Command từ Cohere, và Inflection-1 từ nhà sản xuất chatbot Inflection.
Và họ nghiên cứu các mô hình trí tuệ nhân tạo 'mã nguồn mở' có thể tải về miễn phí, thay vì chỉ truy cập độc quyền trên đám mây, bao gồm mô hình tạo ảnh Stable Diffusion 2 và Llama 2, được Meta phát hành vào tháng 7 năm nay. (Như MYTOUR đã đưa tin trước đây, những mô hình này thường không hoàn toàn mở như có vẻ.)
Nhóm nghiên cứu Stanford đánh giá mức độ mở của các mô hình này dựa trên 13 tiêu chí khác nhau, bao gồm độ minh bạch của nhà phát triển về dữ liệu được sử dụng để huấn luyện mô hình - ví dụ, bằng cách tiết lộ cách nó được thu thập và chú thích và liệu nó có chứa tài liệu có bản quyền hay không. Nghiên cứu cũng tìm kiếm thông báo về phần cứng được sử dụng để huấn luyện và chạy mô hình, các khung phần mềm được sử dụng, và năng suất năng lượng của dự án.
Qua những tiêu chí này, các nhà nghiên cứu phát hiện rằng không mô hình nào đạt được hơn 54% trên thang đo minh bạch đối với tất cả các tiêu chí này. Tổng thể, Titan Text của Amazon được đánh giá là ít minh bạch nhất, trong khi Llama 2 của Meta được vinh danh là mở cửa nhất. Nhưng thậm chí một mô hình 'mã nguồn mở' như Llama 2 cũng được phát hiện là khá mờ, vì Meta không tiết lộ dữ liệu được sử dụng cho việc huấn luyện, cách thu thập và chăm sóc dữ liệu đó, hoặc người nào thực hiện công việc.
Nathan Strauss, người phát ngôn của Amazon, cho biết công ty đang xem xét kỹ chỉ số này. “Titan Text vẫn đang trong bản xem trước riêng tư, và việc đánh giá sự minh bạch của một mô hình cơ bản trước khi nó sẵn sàng cho sự phổ biến chung sẽ là quá sớm,” ông nói. Meta từ chối bình luận về báo cáo của Stanford và OpenAI không đáp lại yêu cầu bình luận.
Rishi Bommasani, một sinh viên tiến sĩ tại Stanford đã tham gia vào nghiên cứu, nói rằng nó phản ánh sự thật rằng trí tuệ nhân tạo đang trở nên mờ nhòe hơn ngay cả khi nó trở nên ảnh hưởng lớn hơn. Điều này tương phản lớn với cú bùng nổ lớn trước đó trong trí tuệ nhân tạo, khi sự minh bạch giúp cung cấp những tiến bộ lớn trong khả năng bao gồm cả nhận dạng giọng nói và hình ảnh. “Vào cuối thập kỷ 2010, các công ty đã minh bạch hơn về nghiên cứu của họ và công bố nhiều hơn,” Bommasani nói. “Đây là lý do chúng ta có được thành công của học sâu.”
Báo cáo của Stanford cũng gợi ý rằng các mô hình không cần phải giữ bí mật vì lý do cạnh tranh. Kevin Klyman, một nghiên cứu chính sách tại Stanford, nói rằng việc một loạt các mô hình hàng đầu đạt điểm khá cao trên các biểu đồ khác nhau về minh bạch cho thấy tất cả chúng đều có thể trở nên mở cửa hơn mà không mất cạnh tranh với đối thủ.
Khi các chuyên gia trí tuệ nhân tạo cố gắng tìm ra hướng đi của sự phát triển gần đây của một số phương pháp trong lĩnh vực trí tuệ nhân tạo, một số người nói rằng sự mất bí mật có thể làm cho lĩnh vực này trở nên ít là khoa học hơn và nhiều hơn là một lĩnh vực hướng lợi nhuận.
“Đây là một thời kỳ quyết định trong lịch sử của trí tuệ nhân tạo,” nói Jesse Dodge, một nhà nghiên cứu tại Viện AI Allen, hay AI2. “Những người chơi ảnh hưởng nhất xây dựng các hệ thống trí tuệ nhân tạo sinh sáng ngày nay ngày càng đóng cửa, không chia sẻ chi tiết chính của dữ liệu và quy trình của họ.”
AI2 đang cố gắng phát triển một mô hình ngôn ngữ trí tuệ nhân tạo minh bạch hơn nhiều, được gọi là OLMo. Nó đang được huấn luyện bằng cách sử dụng một bộ sưu tập dữ liệu lấy từ web, các công bố học thuật, mã nguồn, sách và bách khoa toàn thư. Bộ dữ liệu đó, được gọi là Dolma, đã được phát hành dưới giấy phép ImpACT của AI2. Khi OLMo sẵn sàng, AI2 kế hoạch phát hành hệ thống trí tuệ nhân tạo đang hoạt động và cũng mã nguồn điều khiển của nó, cho phép người khác xây dựng dựa trên dự án.
Dodge nói rằng việc mở rộng quyền truy cập vào dữ liệu đằng sau các mô hình trí tuệ nhân tạo mạnh mẽ là đặc biệt quan trọng. Mà không có quyền truy cập trực tiếp, thì thông thường là không thể biết được tại sao hoặc làm thế nào một mô hình có thể làm điều đó. “Tiến bộ trong khoa học đòi hỏi tính nhất quán,” ông nói. “Nếu không có quyền truy cập mở vào những khối xây dựng quan trọng này của quá trình tạo mô hình, chúng ta sẽ tiếp tục trong tình trạng ‘đóng cửa’, đình trệ và độc quyền.”
Với cách mà mô hình trí tuệ nhân tạo đang được triển khai rộng rãi—và với những cảnh báo nguy hiểm mà một số chuyên gia cảnh báo—một chút sự minh bạch hơn có thể đi xa.
