Chip WSE-3, được TSMC từ Đài Loan sản xuất, là thế hệ chip thứ ba của Cerebras. Với 4 nghìn tỷ bóng bán dẫn và 900.000 lõi AI, chip này mang lại băng thông bộ nhớ vượt trội gấp 7.000 lần so với H100 của Nvidia.
Cerebras Systems, một công ty khởi nghiệp từ Hoa Kỳ, đang thách thức sự thống trị của Nvidia trong lĩnh vực GPU AI bằng cách phát triển và triển khai chip AI của riêng họ. Với Wafer Scale Engine có kích thước tương đương iPad, Cerebras đã công bố dịch vụ mới vào thứ Ba, cho phép khách hàng xử lý các tác vụ AI hiệu quả hơn.
Cerebras cho biết công nghệ của họ có thể xử lý các chương trình AI nhanh hơn đến 20 lần so với GPU của Nvidia, chỉ với một phần năm chi phí. Dịch vụ mới của họ, Cerebras Inference, tập trung vào khả năng suy luận của AI, cho phép tạo ra dữ liệu mới như dự đoán từ tiếp theo trong một đoạn văn.
Với chip này, Cerebras đã hợp tác cùng Meta để vận hành mô hình ngôn ngữ Llama 3.1, đạt hiệu suất 1.800 token mỗi giây cho phiên bản 8 tỷ tham số và 450 token mỗi giây cho phiên bản 70 tỷ tham số. Điều này cho thấy sự vượt trội rõ rệt so với các dịch vụ đám mây AI khác như AWS của Amazon, Microsoft Azure và Groq, trong khi chi phí của Cerebras chỉ bằng một phần nhỏ so với các tùy chọn dựa trên GPU.
Chip WSE-3, do TSMC của Đài Loan sản xuất, là thế hệ chip thứ ba của Cerebras, với 4 nghìn tỷ bóng bán dẫn và 900.000 lõi AI, mang lại băng thông bộ nhớ cao gấp 7.000 lần so với H100 của Nvidia. Tuy nhiên, sự so sánh này có thể không hoàn toàn công bằng vì Nvidia đã công bố kiến trúc Blackwell mới, hứa hẹn hiệu suất vượt trội hơn nhiều so với H100.
Cerebras đang nỗ lực mở rộng quyền truy cập vào chip WSE-3 của mình bằng cách cung cấp silicon cho các nhà cung cấp dịch vụ đám mây khác, mặc dù mỗi hệ thống CS-3 có giá 'vài triệu đô la'. Điều này khiến hệ thống Cerebras đắt hơn nhiều so với một GPU H100 duy nhất của Nvidia, có thể có giá khoảng 30.000 đô la.