Như đã được đề cập trong bài viết tổng hợp trước đó, khi nói về lĩnh vực nghiên cứu machine learning, hầu hết các tổ chức phải dựa vào sức mạnh xử lý của chip chuyên biệt để đáp ứng nhu cầu huấn luyện thuật toán. Đó chính là lúc Nvidia tỏ ra mạnh mẽ với công nghệ của mình.Và theo dự báo của nhiều nhà phân tích thị trường, rất có thể nhu cầu sử dụng trí thông minh nhân tạo sẽ gây ra một cơn sốt về GPU xử lý AI trong những tháng tiếp theo.
FierceElectronics thông tin rằng, để vận hành ChatGPT, OpenAI đã phải sử dụng sức mạnh của 10 nghìn GPU của Nvidia trong quá trình huấn luyện mô hình ngôn ngữ. Mặc dù con số này nghe có vẻ đáng sợ, nhưng từ khi ChatGPT thu hút sự chú ý của toàn thế giới, lượng GPU này lại trở nên khan hiếm trong việc phục vụ hàng trăm triệu người dùng. Đây là một phần lý do OpenAI phải giới thiệu gói cước 20 USD mỗi tháng có tên là ChatGPT Plus. Bằng cách mua gói này, người dùng sẽ được ưu tiên sử dụng ChatGPT trong giờ cao điểm, cũng như trải nghiệm trước các tính năng mới và AI được cải thiện hơn.
“Hoàn toàn có khả năng ChatGPT hoặc các mô hình deep learning khác sẽ được vận hành thông qua GPU của các hãng khác trong tương lai. Tuy nhiên, hiện tại, GPU của Nvidia đang được sử dụng rộng rãi trong cộng đồng nghiên cứu và phát triển deep learning nhờ vào hiệu năng cao và hỗ trợ CUDA. Đây là nền tảng tính toán và mô hình lập trình mà Nvidia tạo ra, cho phép tính toán hiệu quả trên GPU của hãng. Nhiều thư viện và framework deep learning như TensorFlow và PyTorch đều hỗ trợ CUDA, được tối ưu cho GPU của Nvidia,” FierceElectronics viết.“Ví dụ, việc áp dụng ChatGPT cho mọi tìm kiếm trên Google sẽ đòi hỏi 512.820 máy chủ HGX, tổng cộng 4.102.568 GPU A100 được lắp trong những máy chủ này. Tổng giá trị của chúng, cùng với cơ sở hạ tầng mạng vận hành, có thể lên đến 100 triệu USD vốn đầu tư, mà Nvidia sẽ hưởng được phần lớn. Tuy nhiên, điều này có thể chỉ là ước lượng vui vẻ nếu không có sự tiến bộ đáng kể về hiệu suất xử lý AI từ cả phần cứng và phần mềm.”
Như đã đề cập trước đó, trong quá trình phát triển và huấn luyện mô hình ngôn ngữ GPT-3, OpenAI đã sử dụng khoảng 10 nghìn GPU. Đối với phiên bản hiện tại đang được phát triển, mô hình GPT-5, có thể sử dụng đến sức mạnh của 25 nghìn GPU của Nvidia. Ước tính giá trị của toàn bộ hệ thống có thể lên đến 225 triệu USD.
Cần nhớ rằng, nguồn cung chip bán dẫn trên toàn cầu là có hạn, bao gồm cả chip dành cho doanh nghiệp và người tiêu dùng. Nếu Nvidia, một tập đoàn không sở hữu nhà máy sản xuất chip, tập trung vào việc đặt hàng GPU cho nghiên cứu trí tuệ nhân tạo, có thể sẽ ảnh hưởng đến cung cấp GPU cho mục đích chơi game hoặc máy trạm. Đã có thông tin cho biết nguồn cung GPU cho máy tính để bàn trong dịp Tết Nguyên Đán vừa qua đã có dấu hiệu giảm.
Mặc dù nguồn cung vẫn đang vượt qua nhu cầu, đặc biệt là đối với thế hệ GPU mới nhất mà vẫn có hàng sẵn tại các cửa hàng và không bị tăng giá, nhưng khả năng cung không đáp ứng đủ nhu cầu trong tương lai gần là điều có thể xảy ra, đặc biệt là khi Nvidia nhận ra rằng lợi nhuận từ GPU nghiên cứu trí tuệ nhân tạo có thể vượt xa tiềm năng của GPU dành cho máy tính cá nhân, trong bối cảnh nhu cầu về máy tính cá nhân đang ở mức thấp chưa từng thấy trong vòng 3 thập kỷ qua.
Theo WCCFTech