

- Chip Xử Lý Mạnh Mẽ Nhất Trên Hành Tinh: 208 Tỷ Transistor, Gia Công Trên Tiến Trình 4NP Của TSMC, 2 Die Silicon Ghép Lại Bằng Cầu Nối 10TB/s, Tạo Ra Một GPU Khổng Lồ.
- Transformer Engine Thế Hệ 2, Hỗ Trợ Nội Suy AI Số Thực Dấu Phẩy Động 4-bit Và 6-bit Mới, Bên Cạnh 8-bit, Tăng Cường Hiệu Năng Xử Lý Và Huấn Luyện Mô Hình AI Gấp Đôi.
- Cầu Nối NVLink Thế Hệ 5: Tăng Tốc Xử Lý Các Mô Hình Ngôn Ngữ Với Hàng Nghìn Tỷ Tham Số, Với Băng Thông Bộ Nhớ 1.8 TB/s, Hỗ Trợ Vận Hành Tối Đa 576 GPU Trong Một Cụm Máy Chủ, Và Những LLM Phức Tạp Nhất.
- RAS Engine: Cụm Nhân Xử Lý Đảm Bảo Hiệu Quả Toàn Bộ Hệ Thống, Viết Tắt Của Reliability, Availability & Serviceability. GPU Blackwell Có Thể Chạy Thuật Toán AI Dự Báo Về Những Vấn Đề Có Khả Năng Xảy Ra, Đảm Bảo Dịch Vụ Vận Hành Hoàn Hảo Mà Không Cần Can Thiệp, Giảm Chi Phí Vận Hành Dịch Vụ.
- Secure AI: Vận Hành Mô Hình AI Đồng Thời Bảo Mật Dữ Liệu Của Các Đơn Vị Và Tổ Chức, Bao Gồm Cả Bên Nghiên Cứu Khoa Học, Quân Sự, Y Tế Và Tài Chính.
- Decompression Engine: Cụm Nhân Xử Lý Hỗ Trợ Format Dữ Liệu Mới Nhất, Tăng Tốc Xử Lý Và Truy Xuất Cơ Sở Dữ Liệu, Tạo Hiệu Năng Phân Tích Dữ Liệu Nhanh Nhất.




Về Mặt Ứng Dụng, B200 Sẽ Có Một Lựa Chọn Duy Nhất, Một Platform Bao Gồm 2 Chip B200, Tức 4 Die GPU, Kèm CPU Grace Với 72 Nhân CPU Kiến Trúc ARM Neoverse V2. Hai GPU Và CPU Blackwell Và Grace Sẽ Kết Nối Thông Qua Giao Thức NVLink Băng Thông 900 GB/s. Điều Này Đồng Nghĩa Với Việc, Không Có Giải Pháp Card PCIe Hay Hệ Thống Như Grace Hopper, 1 CPU 1 GPU, Hoặc Hai GPU H100/H200 Vận Hành Độc Lập Trong Những Cluster Điện Toán Đám Mây Và Data Center Cho Các Doanh Nghiệp Tự Do Lựa Chọn.

Cần Phải Nói Thêm Về GB200, Hệ Thống Trang Bị GPU B200 Mới Nhất Của Nvidia, Giải Pháp Thương Mại Mới Được Công Bố. Bên Cạnh 192GB Bộ Nhớ HBM3e Trên Die Chip B200, Có RAM Riêng Để Cung Cấp Dữ Liệu Cho Những Con Chip. GB200 Sẽ Được Trang Bị Tổng Cộng 864GB RAM. Mỗi “Superchip” Này Sẽ Tạo Ra Sức Mạnh Xử Lý INT8 40 Petaflop, Và Kết Nối Thông Qua Giao Thức NVLink Băng Thông 3.6 TB/s.
Cả Ba Con Chip Trang Bị Trên GB200 Đều Ngốn Điện, Tối Đa Có Thể Lên Tới 2700W. Hỗ Trợ Chuẩn Kết Nối PCIe 6.0 (2x256 GB/s). Áp “Siêu Chip” Theo Cách Nvidia Gọi GB200 Vào Những Cụm Máy Chủ, Thì Một Server Blade Sẽ Bao Gồm Hai Board GB200, 4 GPU, 2 CPU, Tạo Ra Sức Mạnh 80 Petaflop Xử Lý AI, 1.7GB Bộ Nhớ HBM3e, Băng Thông Bộ Nhớ 32 TB/s, Và Được Làm Mát Bằng Chất Lỏng. Nvidia Gọi Server Blade Này Là Blackwell Compute Node.
Không Chỉ Có B200 Và CPU Grace, Mà Blackwell Compute Node Còn Trang Bị Những Con Chip Và Bo Mạch Xử Lý Chuyên Biệt Kết Hợp Lại Với Nhau Với Một Mục Đích Duy Nhất, Tạo Ra Băng Thông Bộ Nhớ Và Sức Mạnh Xử Lý AI Nhanh Nhất. Trong Đó Bao Gồm Cầu Nối Dữ Liệu ConnectX-800G Infiniband, DPU Bluefield 3 Phục Vụ Xử Lý Networking, Quản Lý Bộ Nhớ Lưu Trữ Và Bảo Mật.





NVLink Switch, Một Phần Quan Trọng Không Thể Bỏ Qua, Được Gia Công Trên Tiến Trình 4NP Của TSMC Với 50 Tỷ Transistor, Vận Hành 72 Port SerDes Băng Thông 200 GB/s, Và 4 Cầu Nối NVLink Băng Thông 1.8 TB/s.



Tại Sự Kiện GDC 2024, Nvidia Thông Báo Rằng, Blackwell GB200 Sẽ Được Trang Bị Trên Hệ Thống DGX Cloud, Ra Mắt Trong Nửa Cuối Năm 2024. Sau Đó, Các Đơn Vị OEM Sẽ Cung Cấp Giải Pháp Máy Chủ Trang Bị Chip Xử Lý AI Thế Hệ Mới Nhất, Bao Gồm Dell, Cisco, HPE, Lenovo, Supermicro, Aivres, ASRock Rack, ASUS, Eviden, Foxconn, Gigabyte, Inventec, Pegatron, QCT, Wistron, Wiwynn & ZT Systems.