
Các báo cáo từ truyền thông Hàn Quốc tiết lộ rằng Samsung Electronics và AMD đã ký kết một hợp đồng trị giá 3 tỷ USD, khoảng 4134 tỷ KRW, để cung cấp chip nhớ xếp chồng HBM3E 12H. AMD sẽ dùng các chip này cho các bộ tăng tốc AI và HPC dựa trên kiến trúc CDNA. Điều này là một dấu hiệu quan trọng giúp các nhà phân tích đánh giá số lượng GPU AI mà AMD dự định ra mắt.
Giá trị cao của thỏa thuận này cũng ám chỉ rằng Samsung đang cung cấp chip HBM3E 12H với mức giá cạnh tranh. Điều này đặc biệt quan trọng khi đối thủ cạnh tranh chính của AMD, NVIDIA, lại chọn sử dụng chip HBM3E từ SK hynix. Điều này cho thấy AMD đang nỗ lực đảm bảo nguồn cung HBM3E với chi phí hợp lý nhất để tăng khả năng cạnh tranh của sản phẩm.Dự báo thị trường AI GPU vào cuối năm 2024 sẽ trở nên nhộn nhịp với sự xuất hiện của các sản phẩm hàng đầu như NVIDIA “Hopper” H200, NVIDIA Blackwell, AMD MI350X “CDNA 3”, và Intel Gaudi 3. Samsung đã giới thiệu chip nhớ HBM3E 12H vào tháng 2, có đến 50% số tầng tăng và mật độ lên đến 36 GB mỗi stack. AMD dự kiến sẽ sử dụng HBM3E trong kiến trúc CDNA 3, cụ thể là MI350X, vào nửa cuối năm nay với 8 stack cung cấp đến 288 GB trên mỗi package. MI350 sẽ được sản xuất bằng công nghệ 4 nm EUV của TSMC và được đánh giá có băng thông cao hơn 30% so với MI300 trước đây, trong khi HBM3E 12H hứa hẹn tăng tốc độ huấn luyện AI trung bình nhanh hơn 34% so với HBM3E 8H.viva100