Rõ ràng không có gì sánh kịp với những chip xử lý được thiết kế đặc biệt cho mỗi nhiệm vụ. Microsoft cũng đã nhận ra điều này. Trong vài năm qua, có những đồn đoán về việc họ đang phát triển chip silicon để đáp ứng nhu cầu xử lý thuật toán AI. Tin đồn này đã trở thành sự thật khi trong tuần qua, tại sự kiện Ignite 2023, Microsoft đã công bố 2 con chip kiến trúc ARM, dự kiến sẽ được triển khai trên máy chủ đám mây Azure từ năm sau để vận hành các dịch vụ AI như Microsoft Copilot.Có thể nói rằng, Maia 100 và Cobalt 100 là kết quả của dự án Athena, một nỗ lực nhằm giảm thiểu sự phụ thuộc vào Nvidia với các GPU dành riêng cho thị trường xử lý AI như A100 và mới nhất là H200 với kiến trúc Hopper.
Chip tăng tốc xử lý AI Maia 100 của Microsoft Azure được thiết kế với mục đích duy nhất là đạt hiệu năng xử lý mạnh nhất khi sử dụng các mô hình ngôn ngữ quy mô lớn như GPT-3.5 Turbo hoặc GPT-4. Chip này được sản xuất bởi TSMC trên tiến trình 5nm, với hơn 105 tỷ transistor. Maia 100 có khả năng hỗ trợ các định dạng sub-8-bit để huấn luyện và triển khai mô hình ngôn ngữ, áp dụng cho các dịch vụ như Copilot hay Bing Chat.Trước khi H200 ra mắt, chip xử lý AI mạnh nhất thế giới là H100, trang bị 80 tỷ transistor. Trái ngược với đó, Instinct MI300X của AMD sẽ có tới 153 tỷ transistor. Microsoft không công bố hiệu suất xử lý số thực của Maia 100, nhưng cho biết chip này có băng thông bộ nhớ lên đến 4.8 terabit/s, giúp mở rộng quy mô máy chủ đám mây cũng như hiệu năng xử lý.
Cobalt 100 là một CPU 128 nhân 64-bit dựa trên kiến trúc Neoverse Compute Subsystems của ARM. Microsoft cho biết, nhờ CPU này, hiệu năng của hệ thống trên Azure sẽ tăng 40%, so với các máy chủ sử dụng chip ARM hiện tại. Các dịch vụ như Microsoft Teams hay Windows 365 sẽ được tận dụng để vận hành trên Cobalt 100.
Theo bà Rani Borkar, Giám đốc hệ thống kiến trúc Azure tại Microsoft, việc phát triển chip in-house của họ là kết quả của 20 năm nghiên cứu và kinh nghiệm trong việc phát triển chip cho Xbox và Surface. Cobalt 100 cho phép Microsoft kiểm soát hiệu suất và tiêu thụ điện theo từng nhân, từ đó xây dựng được các máy chủ tiết kiệm chi phí thực sự.Hình minh họa cho hệ thống sử dụng chip Maia 100 và Cobalt 100. Microsoft đã phải thiết kế cả hệ thống tản nhiệt và rack server riêng, để có không gian cho cáp điện và cáp mạng. Với hệ thống này, chi phí vận hành thấp hơn nhiều so với hệ thống sử dụng CPU và GPU của AMD và Nvidia.Hiện nay, chi phí phát triển, huấn luyện và vận hành các mô hình ngôn ngữ vẫn rất cao. Ước tính vận hành chatbot AI có chi phí cao gấp 10 lần so với vận hành một công cụ tìm kiếm trực tuyến. Việc tạo ra chip tùy chỉnh để phục vụ các nhu cầu xử lý cụ thể không chỉ giải quyết vấn đề nguồn cung chip AI mà còn giúp Microsoft có lợi thế trong thị trường xử lý AI càng ngày càng cạnh tranh.Amazon, Meta và Google đều đã có chip xử lý riêng. Các công ty nghiên cứu như Ampere đang mơ ước trở thành nhà cung cấp lớn chip trung tâm dữ liệu kiến trúc ARM trong tương lai.
Mặc dù đã có Maia 100 và Cobalt 100, trong tương lai gần, Microsoft sẽ tiếp tục áp dụng chip xử lý từ các hãng khác, bao gồm cả H200 mới được Nvidia công bố cách đây ít ngày, trong các máy chủ Azure xử lý thuật toán AI và mô hình ngôn ngữ.
Theo Techspot
