Vì sao Google quyết định rót 100 triệu USD vào một startup gần như vô danh?

Trong cuộc chạy đua vũ trang về trí tuệ nhân tạo (AI), nếu dữ liệu được ví như "dầu mỏ" thì chip xử lý chính là "động cơ vĩnh cửu". Trong nhiều năm, Nvidia đã ung dung giữ vị trí thống trị với các dòng GPU làm chủ thị trường. Tuy nhiên, với nguồn lực tài chính khổng lồ, Google đang gấp rút triển khai những bước đi mới nhằm mở rộng ảnh hưởng của các dòng chip do mình tự phát triển, sẵn sàng bước vào cuộc đối đầu trực diện với đội Xanh.
Chiến lược "Vây Ngụy cứu Triệu"
Theo nguồn tin từ Wall Street Journal (WSJ), Google đang tiến hành đàm phán để đầu tư khoảng 100 triệu USD vào Fluidstack, một startup điện toán đám mây đang nổi lên nhanh chóng. Nếu thương vụ hoàn tất, mức định giá của Fluidstack có thể được đẩy lên khoảng 7,5 tỷ USD.
Vì sao Google lại chú ý tới một "neocloud" (những nhà cung cấp dịch vụ đám mây thế hệ mới) như Fluidstack? Lý do nằm ở việc xây dựng và mở rộng hệ sinh thái.
Trong khi CoreWeave, đối thủ lớn của Fluidstack, đang đóng vai trò như "đại lý" trung thành cho Nvidia, thì Google muốn biến Fluidstack thành một bàn đạp để thúc đẩy việc triển khai dòng chip Tensor Processing Units (TPU) do chính hãng phát triển.
Thông qua việc rót vốn vào mạng lưới các đối tác trung tâm dữ liệu, Google không chỉ đơn thuần bán chip mà còn từng bước thiết lập một "đường dẫn" giúp TPU tiếp cận với nhiều nhóm khách hàng hơn, từ các startup nhỏ cho đến doanh nghiệp lớn đang tìm cách tối ưu chi phí. Đây là chiến lược tận dụng sức mạnh tài chính để chủ động tạo ra nhu cầu trên thị trường, thay vì chờ khách hàng tự tìm đến.

Lợi thế của Google nằm ở việc hãng đã cung cấp quyền truy cập TPU thông qua Google Cloud từ năm 2018. Theo phân tích của SemiAnalysis, Google hiện không chỉ vận hành dịch vụ điện toán đám mây mà còn trực tiếp bán chip TPU cho khách hàng bên ngoài.
Không giống GPU vốn xuất phát từ mục đích xử lý đồ họa game, dòng chip Ironwood (thế hệ thứ 7 của TPU) được Google thiết kế chuyên dụng cho các tác vụ suy luận AI (inference). Các kỹ sư nhận định TPU có hiệu suất vượt trội trong những phép tính AI quy mô lớn mà không cần độ chính xác đồ họa quá cao, từ đó giúp doanh nghiệp giảm đáng kể chi phí vận hành.
Sức hấp dẫn của TPU thể hiện rõ khi Anthropic (đối thủ lớn của OpenAI) công bố kế hoạch mở rộng việc sử dụng hạ tầng đám mây của Google, bao gồm vận hành tới 1 triệu chip TPU. Thậm chí Meta Platforms (công ty mẹ của Facebook) cũng được cho là đã thảo luận khả năng áp dụng dòng chip này nhằm giảm sự phụ thuộc quá lớn vào Nvidia.
Tầm quan trọng của mảng phần cứng đối với Google còn thể hiện qua các quyết định nhân sự. Ông Amin Vahdat, người đóng vai trò chủ chốt trong việc phát triển hệ thống chip và mạng lưới, vừa được bổ nhiệm làm Giám đốc Công nghệ hạ tầng AI và sẽ báo cáo trực tiếp cho CEO Sundar Pichai.
Tuy vậy, hành trình của Google không hề bằng phẳng. Công ty đang gặp phải "nút thắt cổ chai" từ các đối tác sản xuất. TSMC, nhà sản xuất chip lớn nhất thế giới, hiện đang ưu tiên công suất cho Nvidia – khách hàng lớn nhất của họ. Ngoài ra, tình trạng khan hiếm chip nhớ trên toàn cầu cũng là một rủi ro đáng chú ý.
Thêm vào đó, thách thức còn đến từ chính các đối thủ. Những gã khổng lồ trong lĩnh vực đám mây như Amazon Web Services (AWS) đã tự phát triển chip riêng, chẳng hạn Trainium và Inferentia, vì vậy họ không mấy hứng thú với việc mua chip từ một đối thủ trực tiếp như Google.
Thậm chí, bên trong Google từng xuất hiện những cuộc tranh luận về khả năng tách mảng TPU thành một đơn vị hoạt động độc lập nhằm dễ dàng kêu gọi nguồn vốn bên ngoài. Dù phía Google khẳng định hiện chưa có kế hoạch tái cấu trúc, nhưng áp lực tăng trưởng nhanh chóng để thu hẹp khoảng cách với Nvidia là điều không thể phủ nhận.

Google đang sở hữu lợi thế lớn về tích hợp dọc: hãng có mô hình ngôn ngữ lớn Gemini, hệ sinh thái Google Cloud quy mô toàn cầu và năng lực tự thiết kế chip phù hợp với phần mềm của mình. Việc hợp tác với các đối tác như Fluidstack hay hỗ trợ tài chính cho các công ty chuyển đổi từ khai thác tiền điện tử sang trung tâm dữ liệu như Hut 8 và TeraWulf cho thấy Google đang theo đuổi một chiến lược dài hạn.
Dù Nvidia vẫn nắm ưu thế áp đảo về thị phần cũng như hệ sinh thái lập trình viên, sự vươn lên của TPU cùng chiến lược "dùng tiền để giành thị phần" của Google có thể khiến trật tự trong ngành chip AI thay đổi trong vài năm tới. Với các startup AI, việc xuất hiện thêm một lựa chọn hiệu quả và tiết kiệm hơn Nvidia chắc chắn là tin đáng mừng khi chi phí tính toán ngày càng leo thang.
*Nguồn: WSJ, Fortune
