OpenAI hôm nay giới thiệu o3-mini, một mô hình AI tiết kiệm chi phí hơn, phù hợp cho cả và OpenAI API.
Theo thông tin được công ty công bố, o3-mini đã được hé lộ vào tháng 12 và hiện đã chính thức được phát hành, trong bối cảnh OpenAI đang nỗ lực bắt kịp DeepSeek từ Trung Quốc.

OpenAI cho biết o3-mini "đẩy xa giới hạn" của những gì có thể đạt được với các mô hình AI nhỏ gọn, hiệu quả hơn. Được tối ưu cho các khả năng STEM, o3-mini có ưu thế nổi bật trong các lĩnh vực khoa học, toán học và lập trình. Nó có khả năng tìm kiếm mạnh mẽ và có thể cung cấp các câu trả lời mới nhất kèm theo các liên kết đến nguồn tài liệu trực tuyến có liên quan.
o3-mini là mô hình lý luận nhỏ đầu tiên của OpenAI, hỗ trợ các tính năng như gọi hàm, đầu ra có cấu trúc và tin nhắn dành cho nhà phát triển. Mô hình này có ba mức độ lý luận: thấp, trung bình và cao, giúp tối ưu hóa cho các trường hợp sử dụng đa dạng, tùy vào yêu cầu về sức mạnh xử lý hoặc tốc độ.

OpenAI vẫn duy trì o1 như mô hình lý luận kiến thức chung tiêu chuẩn, tuy nhiên o3-mini được tối ưu hóa cho các lĩnh vực kỹ thuật cần độ chính xác và tốc độ cao. Khi sử dụng với , o3-mini chọn mức độ lý luận trung bình để cân bằng giữa tốc độ và độ chính xác.
Người dùng Plus, Team và Pro có thể bắt đầu sử dụng o3-mini ngay từ hôm nay, và mô hình này sẽ thay thế o1-mini trong danh sách các mô hình có sẵn. Giới hạn tốc độ của người dùng Plus và Team đã tăng lên 150 tin nhắn mỗi ngày, gấp ba lần so với trước đây.
o3-mini là mô hình lý luận đầu tiên mà OpenAI cung cấp miễn phí cho người dùng. Người dùng gói miễn phí có thể thử nghiệm o3-mini bằng cách chọn tùy chọn "Reason" trong trình soạn thảo tin nhắn.
Nguồn: Macrumors
- Tất cả thông tin bạn cần về DeepSeek: Công cụ AI đột phá của Trung Quốc và bài học cho Mỹ
- là gì? Các ứng dụng của Open AI trong cuộc sống hàng ngày
