Intel mục tiêu mang lại trải nghiệm tăng tốc bởi Trí tuệ Nhân tạo cho hàng trăm triệu người dùng
Intel tiết lộ chi tiết quan trọng về bộ vi xử lý PC thế hệ tiếp theo, Meteor Lake, tại Microsoft Build 2023
Công ty tuyên bố chiplet SoC của họ sẽ cho phép Intel cung cấp IP tiên tiến và hiệu suất phù hợp với chi phí điện năng thấp hơn, biến Meteor Lake thành nền tảng PC đầu tiên của Intel có VPU tích hợp sẽ chạy các mô hình AI một cách hiệu quả
VPU mới sẽ hoạt động song song với bộ tăng tốc AI mạnh mẽ trên CPU và GPU mà Intel đã hỗ trợ trong nhiều thế hệ, làm cho tính năng AI trên PC trở nên truy cập và hiệu quả hơn cho người dùng
Trong khi các mẫu máy tính sử dụng chip Meteor Lake còn vài tháng nữa mới ra mắt, Intel khẳng định sản phẩm của họ đang là trung tâm của công nghệ hiện đại, Trí tuệ Nhân tạo
Tại Computex 2023, Intel tiết lộ rằng VPU sẽ xuất phát từ thiết kế Bộ xử lý Hình ảnh (VPU) thế hệ thứ ba của Movidius. Intel đã mua lại Movidius vào năm 2016, khẳng định vị thế hàng đầu trong thị trường Trí tuệ Nhân tạo
Mặc dù chưa có số liệu về hiệu suất hoặc không gian khuôn xếp của SoC của VPU được tiết lộ, nhưng dự kiến VPU của Intel sẽ vượt qua xếp hạng gần đây nhất của Movidius là 1 TOPS (số hoạt động tera mỗi giây) về thông lượng
Vì VPU được tích hợp vào SoC, các khả năng AI của nó sẽ không được sử dụng như một điểm khác biệt về tính năng mà thay vào đó sẽ được cung cấp trong tất cả các SKU của Meteor Lake
SoC được thiết kế cho điện thoại thông minh đã cung cấp khả năng tăng tốc Trí tuệ Nhân tạo tương tự, như Neural Engine của Apple và NPU Hexagon của Qualcomm đã hoạt động trong thời gian dài. Intel đặt mục tiêu đạt được hiệu quả năng lượng tương tự khi thực hiện các tác vụ như khử tiếng ồn và làm mờ hậu cảnh.
Intel sẽ hợp tác chặt chẽ với Microsoft để mở rộng Meteor Lake và Windows 11 trên toàn hệ sinh thái. Pavan Davuluri, phó chủ tịch của Windows Silicon & System Integration, Microsoft Corp nói: “Chúng tôi rất vui mừng được cộng tác về Trí tuệ Nhân tạo với Intel với quy mô mà Meteor Lake sẽ mang lại cho hệ sinh thái PC Windows để sử dụng ONNX Runtime và các công cụ liên quan để chạy các mô hình AI một cách tối ưu trên nền tảng Windows.”
ONNX Runtime là một thư viện phần mềm nguồn mở được xây dựng dựa trên định dạng Open Neural Network Exchange (ONNX), có thể triển khai các mô hình máy học trên nhiều nền tảng phần cứng, bao gồm CPU, GPU và VPU.
Công ty kỳ vọng rằng việc chuyển khối lượng công việc AI từ máy chủ sang khách hàng sẽ mang lại lợi ích so với các đối thủ cạnh tranh, bao gồm chi phí thấp hơn, độ trễ thấp hơn và cải thiện quyền riêng tư.