
Cuộc đua nâng cao trải nghiệm tìm kiếm trực tuyến của người dùng đang rất gay gắt. Microsoft đã đạt được một số thành tựu quan trọng, giúp họ vượt lên trước Google. Tuy nhiên, Microsoft cũng gặp một số trục trặc khi chatbot mang tên Sydney tích hợp trong Bing, dựa trên mô hình ngôn ngữ Prometheus, đã nhiều lần “hóa điên”, đưa ra những câu trả lời khiến người dùng hoảng loạn, trong đó có cả những đe dọa bạo lực nữa.
AI của Bing bị 'lạc trí'?
Đầu tháng 2 vừa qua, Microsoft thông báo tích hợp chatbot dựa trên mô hình ngôn ngữ GPT vào Bing, tạo ra “Sydney”. Chỉ trong 48 giờ, có đến 1 triệu người đăng ký chờ đợi để trải nghiệm chatbot trên Bing. Google nhanh chóng có phản ứng bằng việc công bố chatbot có tên là “Bard”. Nhưng thật không công bằng khi sự kiện PR của Google trở thành một thảm họa thực sự. Tại sự kiện, Bard đã đưa ra câu trả lời sai cho một câu hỏi, dẫn đến việc giá trị vốn hóa của Alphabet giảm 100 tỷ USD chỉ trong một ngày.
Tất cả những sự cố không mong muốn đó đã phơi bày vấn đề cơ bản của chatbot: chúng chỉ là những con vẹt được đào tạo bằng cách đổ một lượng dữ liệu khổng lồ từ internet vào mô hình neural network. Dữ liệu này có thể bao gồm mọi thông tin từ Wikipedia, Reddit và các mạng xã hội khác, cùng tin tức từ các trang nổi tiếng. Chatbot hoạt động tương tự như chế độ tự động hoàn chỉnh từ tiếp theo trên điện thoại, dự đoán từ tiếp theo có thể viết trong một câu. Tuy nhiên, vấn đề căn bản của chatbot là chúng phản hồi câu hỏi bằng những gì “có thể đúng” chứ không phải là “thông tin chính xác.”Tại sao lại như vậy?
Tác giả Toby Walsh từ Đại học New South Wales ở Sydney đưa ra một giả thuyết để giải thích sự 'mất trí' của chatbot Sydney trong một số trường hợp. Đơn giản là giả thuyết này cho rằng Sydney có thể không được xây dựng trên mô hình ngôn ngữ GPT-3 như ChatGPT, mà thay vào đó, Microsoft đã sử dụng phiên bản thử nghiệm của mô hình GPT-4 từ OpenAI.
Theo những nguồn tin không chính thức, GPT-4 có thể hoạt động dựa trên 100 nghìn tỷ tham số, nhiều hơn rất nhiều so với GPT-3 chỉ có khoảng 175 tỷ tham số. Điều này làm cho GPT-4 mạnh mẽ hơn đáng kể, và có khả năng tạo ra nội dung mới mẻ, đôi khi khiến người đọc tin rằng chatbot này cảm xúc.
Bất chấp vài trường hợp 'hóa điên', Microsoft vẫn giữ vững sự chú ý và sẵn sàng để mọi người tự trải nghiệm Bing kèm chatbot AI.Khi trải nghiệm mới kết thúc
Một yếu tố quan trọng hơn nhiều là chatbot AI phải làm thế nào để thuyết phục người dùng rằng thông tin mà nó đưa ra là chính xác. Nếu, như có khả năng cao sẽ xảy ra, chatbot tìm kiếm trực tuyến trở nên phổ biến, nhưng vẫn hoạt động như cách Sydney hoạt động hiện nay, thì 'sự thật' bỗng trở thành một khái niệm thậm chí còn trừu tượng hơn cả hiện tại.
Nhớ lại chuyện cũ, Sydney gợi nhớ về Tay, một chatbot AI mà Microsoft thử nghiệm trên Twitter vào năm 2016. Tay biến thành một quái vật phân biệt chủng tộc chỉ sau một ngày, và đó là hậu quả của việc tổng hợp và huấn luyện thuật toán dựa trên dữ liệu có sẵn trên internet.