VTV.vn - DeepSeek R2 được dự đoán sẽ tiếp tục gây bất ngờ, tương tự như những gì phiên bản tiền nhiệm R1 đã làm được.
Cộng đồng mạng đang xôn xao trước tin đồn về DeepSeek R2 – mẫu AI mới có thể sẽ được hãng công nghệ Trung Quốc DeepSeek ra mắt sớm, hứa hẹn tạo nên cú hích toàn cầu.
Theo trang Wccftech, DeepSeek R2 có thể tiếp nối những thành công bất ngờ mà DeepSeek R1 đã đạt được. R1 từng khiến cả thế giới ngỡ ngàng khi cho thấy Trung Quốc hoàn toàn đủ khả năng cạnh tranh trong lĩnh vực AI cao cấp và khiến thị trường chứng khoán Mỹ bốc hơi hàng tỷ USD. Điều quan trọng hơn, R1 chứng minh rằng việc phát triển AI không nhất thiết phải tốn kém như cách các hãng lớn như OpenAI từng tuyên bố.

Truyền thông Trung Quốc cho biết DeepSeek R2 sẽ được xây dựng trên kiến trúc hybrid MoE (Mixture of Experts) – một thiết kế cho phép chỉ kích hoạt một phần nhỏ mạng nơ-ron trong mỗi lần xử lý, giúp tiết kiệm tài nguyên và tăng hiệu quả vận hành.
Phiên bản hybrid này được cho là đã được nâng cấp nhờ tích hợp cơ chế “gating” thông minh – tức khả năng chọn lọc đầu vào một cách tối ưu – hoặc kết hợp linh hoạt giữa các mô hình chuyên biệt và mô hình toàn diện để xử lý dữ liệu hiệu quả hơn.
Với kiến trúc tiên tiến, DeepSeek R2 được cho là sẽ có tới 1,2 nghìn tỷ tham số – tức số lượng biến mà AI dùng để học từ dữ liệu, gấp đôi R1 và tương đương với các siêu AI như GPT-4 Turbo của OpenAI hay Gemini 2.0 Pro của Google.
Không chỉ nổi bật về kích thước, DeepSeek R2 còn được đồn đoán sẽ mang lại lợi thế vượt trội về chi phí vận hành. Theo các nguồn tin rò rỉ, chi phí xử lý mỗi triệu token đầu vào chỉ khoảng 0,07 USD và mỗi triệu token đầu ra là 0,27 USD – thấp hơn tới 97,4% so với GPT-4. (Lưu ý: token là đơn vị nhỏ nhất của dữ liệu, như một từ hoặc cụm từ; giá rẻ như vậy sẽ giúp doanh nghiệp tiết kiệm đáng kể nếu chọn DeepSeek thay vì các mô hình AI đắt đỏ khác.)
DeepSeek R2 còn được cho là đã đạt hiệu suất sử dụng tới 82% trên cụm chip Huawei Ascend 910B – dòng chip AI cao cấp do Trung Quốc sản xuất. Với sức mạnh tính toán lên đến 512 PetaFLOPS (ở độ chính xác FP16 – định dạng 16 bit thường dùng trong huấn luyện AI), điều này cho thấy DeepSeek đã chủ động phát triển hạ tầng AI nội bộ, không còn phụ thuộc vào công nghệ từ Mỹ như trước.
Nói cách khác, DeepSeek không chỉ tập trung giảm chi phí, mà còn đang từng bước nội địa hóa toàn diện chuỗi cung ứng AI – từ phần cứng đến quá trình huấn luyện.
Dù hiện tại mọi thông tin mới chỉ dừng ở mức tin đồn và chưa có xác nhận chính thức từ DeepSeek, nhưng nếu những gì truyền thông Trung Quốc đưa là đúng, DeepSeek R2 có thể sẽ là cú đột phá mới làm rung chuyển thế giới AI.
