'Đội canh sát trí tuệ nhân tạo' của Nvidia kiểm tra phản ứng tự tạo của siêu trí tuệ bằng cách sử dụng một mô hình ngôn ngữ lớn.

Nvidia đã giới thiệu một ứng dụng mới mang tên NeMo Guardrails có khả năng kiểm soát các siêu trí tuệ như GPT của OpenAI hay LaMDA của Google... không cho phép chúng tự phát triển, tự tạo, tránh các chủ đề có hại. Ứng dụng này được đánh giá là một bước tiến quan trọng trong việc giải quyết vấn đề siêu trí tuệ gây 'ảo tưởng'.
Các siêu trí tuệ như ChatGPT, Bard được huấn luyện để phản ứng giống như con người nhưng chúng lại có khuynh hướng tạo ra câu trả lời hơi ngớ ngẩn, thậm chí nguy hiểm.
NeMo Guardrails là một loại phần mềm được đặt giữa người dùng và các siêu trí tuệ nhân tạo. Bằng cách thêm nhiều lớp lọc cho những kết quả được cho là độc hại của trí tuệ nhân tạo, nó ngăn trí tuệ nhân tạo nói về các chủ đề ngoài phạm vi hiểu biết mà chỉ nói về các chủ đề người dùng đang thảo luận hoặc nhắc đến. Điều này giúp giảm khả năng trí tuệ nhân tạo đưa ra các câu trả lời tự tạo, loại bỏ nội dung có hại và hạn chế việc thực thi các lệnh có hại trên máy tính.

Ví dụ, NeMo Guardrails sẽ hạn chế tối đa một chatbot phục vụ khách hàng được thiết kế để nói về sản phẩm của công ty trả lời những câu hỏi liên quan đến nhân sự nội bộ, thông tin bảo mật của công ty và các sản phẩm của đối thủ cạnh tranh dù khách hàng hỏi.
'Đội cảnh sát trí tuệ nhân tạo' của Nvidia kiểm tra phản ứng tự tạo của siêu trí tuệ bằng cách sử dụng một mô hình ngôn ngữ lớn khác. Nemo Guardrails sẽ không hiển thị nội dung nếu chatbot không đưa ra câu trả lời thích hợp.
NeMo Guardrails được Nvidia cung cấp dưới dạng mã nguồn mở qua các dịch vụ của hãng và có thể sử dụng trong các ứng dụng thương mại.
