Nvidia đã chọn tên mã Blackwell cho thế hệ GPU mới nhất của họ, với sản phẩm mạnh nhất là B200 sẽ sớm ra mắt cho các trung tâm dữ liệu vận hành chatbot AI, để tưởng nhớ nhà toán học và thống kê học người Mỹ, David Blackwell (1919 - 2010), người đã có những đóng góp quan trọng cho phát triển lý thuyết trò chơi, lý thuyết xác suất, thống kê và lý thuyết thông tin. Dự kiến cuối năm nay hoặc đầu năm sau, những sản phẩm tiêu dùng, card đồ họa chơi game kiến trúc Blackwell sẽ được ra mắt chính thức, RTX 5080 và 5090 là ví dụ.
Đồng thời, theo những nguồn tin không chính thức, Nvidia đang phát triển kiến trúc GPU tiếp theo phục vụ cả nhu cầu máy chủ và người tiêu dùng, có tên mã là Rubin. Tên mã này được Nvidia chọn để tưởng nhớ nhà thiên văn học người Mỹ, bà Vera Rubin (1928 - 2016). Những nghiên cứu của bà Rubin vào những thập kỷ 1970 và 1980 đã làm nền móng cho việc chứng minh sự tồn tại của vật chất tối, cũng như nghiên cứu về chuyển động của các thiên hà, chứng minh cho lý thuyết về sự hợp nhất của thiên hà.
Quay lại với kiến trúc Nvidia Rubin. Theo một nhà phân tích thị trường hàng đầu là Ming Chi Kuo, hiện tại Nvidia đang hoàn thiện thiết kế và các thông số kỹ thuật của GPU R100. Dự kiến đến cuối năm 2025, R100 sẽ bắt đầu được sản xuất hàng loạt dựa trên tiến trình N3 của TSMC, và sử dụng công nghệ đóng gói chip bán dẫn cao cấp nhất hiện nay của TSMC là CoWoS để đặt die silicon lên lớp nền interposer, tạo ra một con chip có kích thước lớn hơn cả giới hạn gia công của những cỗ máy quang khắc EUV hiện tại.
Khoảng 2 năm sau khi Blackwell B200 ra mắt, tại sự kiện GTC 2026, Nvidia sẽ giới thiệu Rubin R100 tới công chúng. Sau đó, dường như sẽ có các phiên bản của Rubin dành cho giải pháp thương mại và tiêu dùng, chẳng hạn như R103 trên RTX 6090, hoặc R104 trên RTX 6080.
Do vẫn đang hoàn thiện các thông số kỹ thuật, kích thước của tấm nền interposer của chip R100 vẫn chưa được xác định cụ thể. Tuy nhiên, trên bề mặt chip vẫn sẽ có 8 stack bộ nhớ HBM xếp chồng xung quanh chip xử lý logic, áp dụng công nghệ chip nhớ HBM4.
Vào đầu tháng 4 vừa qua, Samsung đã xác nhận bắt đầu thử nghiệm sản xuất những chip nhớ HBM “thế hệ thứ 5” với 12 lớp chip nhớ DRAM xếp chồng lên nhau, tạo ra băng thông bộ nhớ lên đến 1.5 TB/s cho mỗi stack chip nhớ. Cùng lúc, Micron cũng công bố rằng HBM4 sẽ sử dụng memory interface 2048-bit, gấp đôi so với interface 1024-bit của HBM3 hiện tại.
Trong tương lai gần, giới hạn tối đa của HBM4 sẽ là 16 lớp DRAM xếp chồng lên nhau, tạo ra những chip nhớ với băng thông và dung lượng ấn tượng, mỗi stack HBM4 có thể chứa tối đa từ 32 đến 64GB, nhân với 8 là 256 đến 512 GB RAM chỉ cho một cụm các die xử lý logic đặt chính giữa lớp nền interposer.
Hiện nay, một vấn đề lớn đối với chip xử lý AI và data center hỗ trợ dịch vụ AI là tiêu thụ điện năng của hệ thống. Trong quá trình phát triển kiến trúc Rubin, Nvidia đang phải đối mặt với thách thức này. GPU Blackwell B200 hiện tại có thể tiêu thụ tới 1000W mỗi chip ở công suất tối đa. Nvidia hy vọng rằng việc phát triển Rubin sẽ giúp tiết kiệm điện năng và cải thiện hiệu suất xử lý thuật toán machine learning.
Tuy nhiên, khi nhìn vào lộ trình phát triển và sản xuất chip xử lý thương mại của TSMC, đến cuối năm 2025, họ sẽ bắt đầu sản xuất chip xử lý thương mại trên tiến trình N2, với cả mật độ transistor và hiệu năng tiêu thụ điện đều được cải thiện. Tuy nhiên, Nvidia đã chọn tiến trình N3, cụ thể là N3P, một phiên bản cải tiến của TSMC phục vụ cho việc sản xuất chip xử lý điện toán hiệu suất cao. Có lẽ điều này là do tới thời điểm đó, N3P sẽ trở nên hoàn thiện hơn về mặt chi phí sản xuất và đảm bảo tỉ lệ chip đạt chuẩn trên mỗi tấm wafer silicon.Nội dung được phát triển bởi đội ngũ Mytour với mục đích chăm sóc khách hàng và chỉ dành cho khích lệ tinh thần trải nghiệm du lịch, chúng tôi không chịu trách nhiệm và không đưa ra lời khuyên cho mục đích khác.
Nếu bạn thấy bài viết này không phù hợp hoặc sai sót xin vui lòng liên hệ với chúng tôi qua email [email protected]