Kỹ thuật mới đánh thức trí tưởng tượng của trí tuệ nhân tạo để đối mặt với hiện thực
Chatbots có khả năng lo lắng tạo ra thông tin sai lệch nhưng lại trình bày nó như là chính xác. Hiện tượng này, được biết đến là tưởng tượng của trí tuệ nhân tạo, có nhiều ảnh hưởng tiêu cực. Ở mức tốt nhất, nó hạn chế các lợi ích của trí tuệ nhân tạo. Ở mức tồi nhất, nó gây thiệt hại thực tế cho con người.
Khi trí tuệ nhân tạo sinh sôi, chuông báo đang vang lên mạnh mẽ. Như một phản ứng, một nhóm nghiên cứu châu Âu đã chăm chỉ thử nghiệm các phương pháp chữa trị. Tuần trước, nhóm đã giới thiệu một giải pháp hứa hẹn. Họ nói rằng nó có thể giảm hiện tượng tưởng tượng của trí tuệ nhân tạo xuống dưới mức tỷ lệ đơn chữ số.
Hệ thống này là đứa con tinh thần của Iris.ai, một công ty khởi nghiệp có trụ sở tại Oslo. Được thành lập từ năm 2015, công ty đã xây dựng một động cơ trí tuệ nhân tạo để hiểu văn bản khoa học. Phần mềm lọc qua lượng lớn dữ liệu nghiên cứu, sau đó phân tích, phân loại và tóm tắt nó.
Khách hàng bao gồm cả Cơ quan Thực phẩm Phần Lan. Cơ quan chính phủ sử dụng hệ thống để tăng tốc nghiên cứu về đợt dịch cúm gia cầm có thể xảy ra. Theo Iris.ai, nền tảng này giúp tiết kiệm 75% thời gian của người nghiên cứu.
Những điều không giúp họ tiết kiệm thời gian là trí tuệ nhân tạo tưởng tượng.
“Chìa khóa là trả lời mà phù hợp với những gì một chuyên gia con người sẽ nói.
Các mô hình ngôn ngữ lớn (LLMs) ngày nay nổi tiếng vì đưa ra thông tin vô lý và sai lệch. Ví dụ không ngừng về những kết quả này đã xuất hiện trong những tháng gần đây.
Đôi khi sự không chính xác gây thiệt hại về uy tín. Tại buổi giới thiệu của Microsoft Bing AI, ví dụ, hệ thống đã tạo ra một phân tích đầy lỗi của báo cáo doanh thu của Gap.
Lúc khác, những kết quả sai lầm có thể gây hại nhiều hơn. ChatGPT có thể nói ra những lời khuyên y tế nguy hiểm. Các nhà phân tích bảo mật lo sợ rằng những tưởng tượng của chatbot có thể đẩy các gói mã độc hại đến các nhà phát triển phần mềm.
“Thật không may, LLMs quá giỏi trong việc sáng tạo văn bản đến nỗi khó phân biệt tưởng tượng với văn bản được tạo ra một cách chính xác,” Victor Botev, Giám đốc Công nghệ của Iris.ai, nói với TNW. “Nếu vấn đề này không được vượt qua, người dùng mô hình sẽ phải dành nhiều nguồn lực hơn để xác minh kết quả thay vì tạo ra chúng.”
Tưởng tượng của trí tuệ nhân tạo cũng đang làm giảm giá trị của trí tuệ nhân tạo trong nghiên cứu. Trong một cuộc khảo sát của Iris.ai với 500 nhân viên nghiên cứu và phát triển doanh nghiệp, chỉ có 22% số người tham gia nói họ tin tưởng vào các hệ thống như ChatGPT. Tuy nhiên, 84% trong số họ vẫn sử dụng ChatGPT như công cụ trí tuệ nhân tạo chính để hỗ trợ nghiên cứu. Ôi.
Những thực hành gây vấn đề này đã thúc đẩy công việc của Iris.ai về hiện tượng tưởng tượng của trí tuệ nhân tạo.
Kiểm chứng sự thật của trí tuệ nhân tạo
Iris.ai sử dụng nhiều phương pháp để đo lường độ chính xác của đầu ra của trí tuệ nhân tạo. Kỹ thuật quan trọng nhất là xác minh tính chính xác về mặt sự thật.
“Chúng tôi vẽ ra các khái niệm tri thức chính mà chúng tôi mong đợi thấy trong một câu trả lời đúng,” Botev nói. “Sau đó, chúng tôi kiểm tra xem câu trả lời của trí tuệ nhân tạo có chứa những sự thật đó và liệu chúng có đến từ nguồn tin đáng tin cậy hay không.”
Một kỹ thuật phụ so sánh câu trả lời được tạo ra bởi trí tuệ nhân tạo với một “chân lý” đã được kiểm chứng. Sử dụng một thước đo độc quyền được đặt tên là WISDM, phần mềm đánh giá độ tương đồng ngữ nghĩa của đầu ra trí tuệ nhân tạo với chân lý. Điều này bao gồm kiểm tra về chủ đề, cấu trúc và thông tin chính.
Phương pháp khác kiểm tra tính liên kết của câu trả lời. Để làm điều này, Iris.ai đảm bảo rằng đầu ra bao gồm các chủ đề, dữ liệu và nguồn tin liên quan đối với câu hỏi cụ thể — thay vì đầu vào không liên quan.
Sự kết hợp của các kỹ thuật tạo ra một tiêu chuẩn cho tính chính xác về mặt sự thật.
“Chìa khóa đối với chúng tôi không chỉ là trả lại bất kỳ phản hồi nào, mà là trả lại các phản hồi gần giống những gì một chuyên gia con người sẽ nói,” Botev nói.
Iris.ai founders (left to right) Maria Ritola, Jacobo Elosua, Anita Schjøll Abildgaard, and Victor Botev. Credit: Iris.aiDưới bìa của nó, hệ thống Iris.ai tận dụng các đồ thị tri thức, chỉ ra mối quan hệ giữa dữ liệu.
Các đồ thị tri thức đánh giá và thể hiện các bước mà mô hình ngôn ngữ thực hiện để đạt được đầu ra của mình. Theo cách nói khác, chúng tạo ra một chuỗi suy nghĩ mà mô hình nên theo đuổi.
Phương pháp này đơn giản hóa quá trình xác minh. Bằng cách yêu cầu chức năng chat của mô hình chia yêu cầu thành các phần nhỏ hơn và sau đó hiển thị các bước đúng, vấn đề có thể được xác định và giải quyết.
Cấu trúc có thể thậm chí thúc đẩy một mô hình nhận ra và sửa chính nó. Do đó, một câu trả lời hợp nhất và chính xác về mặt sự thật có thể được tạo ra tự động.
“Chúng ta cần phân tích quyết định của trí tuệ nhân tạo.”
Iris.ai hiện đã tích hợp công nghệ này vào tính năng Chat mới, được thêm vào nền tảng Researcher Workspace của công ty. Trong các thử nghiệm sơ bộ, tính năng này đã giảm hiện tượng tưởng tượng của trí tuệ nhân tạo xuống dưới mức một chữ số.
Tuy nhiên, vấn đề chưa hoàn toàn được giải quyết. Mặc dù phương pháp này có vẻ hiệu quả đối với các nhà nghiên cứu trên nền tảng Iris.ai, nhưng việc mở rộng cho các mô hình ngôn ngữ lớn phổ biến. Theo Botev, thách thức không đến từ công nghệ, mà đến từ người sử dụng.
Khi ai đó thực hiện một tìm kiếm Bing AI, ví dụ, họ có thể hiểu biết ít về chủ đề họ đang nghiên cứu. Do đó, họ có thể hiểu sai kết quả mà họ nhận được.
“Mọi người tự chẩn đoán bệnh mọi lúc bằng cách tra cứu các triệu chứng trực tuyến,” Botev nói. “Chúng ta cần có khả năng phân tích quyết định của trí tuệ nhân tạo một cách rõ ràng, có thể giải thích.”
Tương lai của hiện tượng tưởng tượng của trí tuệ nhân tạo
Nguyên nhân chính của hiện tượng tưởng tượng của trí tuệ nhân tạo là vấn đề về dữ liệu đào tạo. Microsoft gần đây đã công bố một giải pháp mới cho vấn đề. Mô hình mới của công ty Phi-1.5 được đào tạo trước trên dữ liệu có chất lượng “sách giáo trình”, được tạo tổng hợp và lọc từ nguồn web.
Trong lý thuyết, kỹ thuật này sẽ giảm thiểu hiện tượng tưởng tượng của trí tuệ nhân tạo. Nếu dữ liệu đào tạo có cấu trúc tốt và thúc đẩy lý luận, thì sẽ ít khả năng cho một mô hình tưởng tượng.
Một phương pháp khác liên quan đến việc loại bỏ độ chệch từ dữ liệu. Để làm điều này, Botev đề xuất đào tạo mô hình bằng ngôn ngữ lập trình.
Hiện nay, nhiều mô hình ngôn ngữ lớn phổ biến được đào tạo trên nhiều loại dữ liệu, từ tiểu thuyết và bài báo đến tài liệu pháp lý và bài đăng trên mạng xã hội. Không tránh khỏi, những nguồn này chứa đựng độ chệch con người.
Trong ngôn ngữ lập trình, có sự nhấn mạnh lớn hơn vào lý luận. Điều này để lại ít không gian cho sự hiểu lầm, có thể hướng dẫn các mô hình ngôn ngữ lớn đến những câu trả lời chính xác về mặt sự thật. Ngược lại, điều này có thể mang lại cho các lập trình viên một sức mạnh có thể gây kinh hãi.
“Đó là một vấn đề của sự tin tưởng.”
Mặc dù có nhược điểm, phương pháp của Iris.ai là một bước đi đúng hướng. Bằng cách sử dụng cấu trúc đồ thị kiến thức, tính minh bạch và khả năng giải thích có thể được thêm vào trí tuệ nhân tạo.
“Sự hiểu biết rộng rãi về quy trình của mô hình, cũng như sự chuyên sâu từ chuyên gia bên ngoài với các mô hình hộp đen, có nghĩa là nguyên nhân gốc của các hiện tượng tưởng tượng ở các lĩnh vực có thể được xác định và giải quyết sớm hơn,” nói Botev.
CTO cũng lạc quan về sự tiến triển bên ngoài trong lĩnh vực này. Ông chỉ đến các hợp tác với những người tạo ra mô hình ngôn ngữ lớn để xây dựng bộ dữ liệu lớn hơn, suy luận đồ thị kiến thức từ văn bản và chuẩn bị các chỉ số tự đánh giá. Trong tương lai, điều này sẽ mang lại giảm thiểu thêm về hiện tượng tưởng tượng của trí tuệ nhân tạo.
Với Botev, công việc phục vụ một mục đích quan trọng.
“Điều này lớn một phần là về sự tin tưởng,” ông nói. “Làm thế nào người dùng có thể tận dụng những lợi ích của trí tuệ nhân tạo nếu họ không tin tưởng vào mô hình mà họ đang sử dụng để đưa ra các câu trả lời chính xác?”
