VOV.VN - Sau thành công của DeepSeek, Qwen2.5-Max, một mô hình ngôn ngữ lớn (LLM) đến từ Alibaba của Trung Quốc, đã gây ấn tượng khi lần đầu tiên lọt vào Top 10 toàn cầu nhờ khả năng vượt trội trong lĩnh vực mã hóa và toán học.
Theo thông tin từ trang web Chatbot Arena – một nền tảng đánh giá độc lập – vào sáng ngày 4/2, bảng xếp hạng mới nhất về các mô hình ngôn ngữ lớn (LLM) đã chứng kiến Qwen2.5-Max của Alibaba Cloud lần đầu tiên lọt vào top 10 toàn cầu, vượt qua các đối thủ như DeepSeek-V3, o1-mini và Claude--Sonnet.
DeepSeek-R1 và - vẫn duy trì vị trí thứ ba trong bảng xếp hạng tổng thể về hiệu suất, theo cập nhật từ Chatbot Arena.

Ảnh minh họa. (Ảnh: Qwen)
Chatbot Arena cũng tiết lộ rằng Qwen2.5-Max đứng đầu về toán học và lập trình, đồng thời đạt vị trí thứ hai trong mục Hard Prompts. “Qwen-Max của Alibaba thể hiện sức mạnh vượt trội trên nhiều lĩnh vực, đặc biệt là các lĩnh vực kỹ thuật như Lập trình, Toán học và Hard Prompts”, trang này chia sẻ trên mạng xã hội X.
Khoảng một tuần trước, Qwen2.5-Max của Alibaba đã được đánh giá là vượt trội hơn cả DeepSeek khi cho kết quả tốt hơn so với DeepSeek-V3 ra mắt vào tháng 12/2024. Thậm chí, mô hình này còn vượt qua GPT--0806 và Claude--Sonnet-1022 trong một số tình huống. Tuy nhiên, kết quả này chưa được so sánh với DeepSeek-R1, phiên bản mới nhất được đào tạo trên chip cũ của Nvidia, mã nguồn mở 100% và tiết kiệm chi phí hơn 96,4% so với OpenAI o1 mà vẫn đảm bảo hiệu suất tương đương.
Tuy nhiên, hiện tại Australia đã áp dụng lệnh cấm đối với tất cả dịch vụ từ công ty công nghệ Trung Quốc DeepSeek trên các thiết bị và hệ thống thuộc chính phủ, đi theo các biện pháp tương tự từ các cơ quan Mỹ như NASA và Lầu Năm Góc.
