Vitalik Buterin, người đứng sau Ethereum, đã kêu gọi một cách tiếp cận thận trọng hơn đối với nghiên cứu AI, nhấn mạnh rằng cuộc đua hiện nay là hành động 'rất nguy hiểm'.
Đáp lại lời chỉ trích về OpenAI và nhà lãnh đạo Ryan Selkis – CEO của công ty tình báo tiền điện tử Messari, người tạo ra blockchain có ảnh hưởng thứ hai trên thế giới đã nêu quan điểm của mình về các nguyên tắc cốt lõi sẽ thúc đẩy sự phát triển của AI alignment (trí tuệ nhân tạo điều chỉnh).
Buterin khẳng định: “AI siêu thông minh rất nguy hiểm và chúng ta không nên lao vào, đồng thời nên chống lại những người cố gắng theo đuổi lĩnh vực này”. Buterin cũng tuyên bố: “Xin đừng thiết lập máy chủ trị giá 7 nghìn tỷ USD”.
Trí tuệ nhân tạo siêu thông minh là một khía cạnh của trí tuệ nhân tạo vượt qua khả năng thông minh của con người trong hầu hết các lĩnh vực. Trong khi nhiều người coi trí tuệ nhân tạo tổng quát (AGI) là một điều hiện thực về tiềm năng đầy đủ của công nghệ mới, các mô hình siêu thông minh sẽ là bước tiến mới tiếp theo.
Mặc dù các hệ thống trí tuệ nhân tạo tiên tiến ngày nay vẫn chưa đạt đến mức độ này, nhưng các tiến bộ trong học máy, mạng nơ-ron và các công nghệ AI khác vẫn tiếp tục phát triển và gây ra sự hứng thú cũng như lo lắng.
Sau dòng tweet của Messari về AGI, Buterin nhấn mạnh tầm quan trọng của một hệ sinh thái AI đa dạng để tránh một thế giới trong đó giá trị của AI được sở hữu và kiểm soát bởi rất ít người.
“Một hệ sinh thái mạnh mẽ bao gồm các mô hình mở hoạt động trên phần cứng tiêu dùng là hàng rào quan trọng để bảo vệ chúng ta khỏi một tương lai, nơi giá trị của AI trở nên siêu tập trung và suy nghĩ của con người bị điều chỉnh bởi một số ít máy chủ trung tâm do một số ít người kiểm soát”.
Người sáng lập Ethereum đã chặt chẽ theo dõi tình hình của trí tuệ nhân tạo, gần đây đã ca ngợi mô hình mã nguồn mở LLM Llama3. Ông cũng gợi ý rằng LLM đa phương thức GPT-4o của OpenAI có thể đã vượt qua cuộc kiểm tra Turing sau khi một nghiên cứu lập luận rằng không thể phân biệt phản ứng của con người và phản ứng của AI.
Paul Christiano, người trước đây dẫn đầu nhóm phát triển ngôn ngữ tại OpenAI, đã thành lập Trung tâm Nghiên cứu Đồng bộ Hóa, một tổ chức phi lợi nhuận chuyên về việc điều chỉnh các hệ thống Trí tuệ Nhân tạo và Học máy sao cho phù hợp với 'lợi ích của con người'.
Theo báo cáo, Christiano cho biết, có thể có '50% khả năng xảy ra thảm họa ngay sau khi chúng ta có hệ thống Trí tuệ Nhân tạo thông minh tương đương với con người'.
Trong một báo cáo, vào tháng 4/2023, Yann LeCun, người đứng đầu nhóm nghiên cứu của Meta, đã chia sẻ quan điểm rằng kịch bản thảm họa như vậy rất khó xảy ra. Ông khẳng định rằng, sự phát triển ngắn hạn của Trí tuệ Nhân tạo ảnh hưởng đáng kể đến cách mà Trí tuệ Nhân tạo phát triển và hình thành quỹ đạo dài hạn của nó.
Ngược lại, Buterin coi bản thân mình là người theo chủ nghĩa trung lập. Trong một bài luận từ năm 2023, được ông đã chấp nhận vào hôm nay, Buterin nhận ra rằng, 'dường như rất khó để có một thế giới thân thiện do Trí tuệ Nhân tạo siêu thông minh thống trị', nơi con người trở thành như thú cưng. Tuy nhiên, ông cũng lập luận rằng, thường thì phiên bản N của một loại công nghệ sẽ gây ra sự cố và phiên bản N+1 sẽ khắc phục nó. Tuy nhiên, việc khắc phục cần sự nỗ lực có chủ đích của con người. Nói cách khác, nếu Trí tuệ Nhân tạo siêu thông minh trở thành vấn đề, con người có thể tìm ra cách giải quyết vấn đề đó.
Sự rời bỏ của các nhà nghiên cứu điều chỉnh từ OpenAI và cách tiếp cận thay đổi của công ty đối với các chính sách an toàn đã làm dấy lên mối lo ngại về việc thiếu quan tâm đến phạm trù đạo đức trong quá trình phát triển Trí tuệ Nhân tạo giữa các công ty khởi nghiệp Trí tuệ Nhân tạo lớn.
Đúng vậy, cũng được cho rằng Google, Meta và Microsoft đã giải tán các nhóm có trách nhiệm đảm bảo rằng Trí tuệ Nhân tạo đang được phát triển một cách an toàn.
Theo DeCrypt