Amazon đang nỗ lực chạy đua với trí tuệ nhân tạo - điều mà các chuyên gia công nghệ về kho bãi và vận chuyển nên là người dẫn đầu.
Theo các tài liệu nội bộ, Amazon đang phải đấu tranh để cạnh tranh với chip trí tuệ nhân tạo của Nvidia, trong bối cảnh doanh thu từ dịch vụ đám mây trị giá hàng triệu USD đang đối mặt với nhiều rủi ro.
Một số chuyên gia cho rằng, Amazon đang bị tụt hậu trong cuộc đua sáng tạo về trí tuệ nhân tạo. Các công ty công nghệ lớn như Microsoft, OpenAI, Google, Meta và Amazon đều gặp khó khăn trong việc phá vỡ thế độc tài của Nvidia trên thị trường này.
“Tôi không biết có ai sử dụng chip AWS của Amazon nhiều như thế nào”, nhà phân tích chip kỳ cựu Stacy Rasgon của Bernstein Research nhận định.
Amazon Web Services (AWS) từ lâu đã là một trong những công ty hàng đầu trong lĩnh vực đám mây. Sự thành công, đặc biệt là khả năng sinh lời, chủ yếu đến từ hoạt động thiết kế chip trung tâm dữ liệu của họ, thay vì chi tiền cho Intel để mua các linh kiện đắt đỏ.
Trong thời đại mới của trí tuệ nhân tạo, Amazon đang cố gắng tái tạo thành công trước đó bằng cách tạo ra các chip AI riêng của họ, gồm Trainium và Inferentia. Mục tiêu là để tránh việc phải mua GPU của Nvidia trong khi vẫn cung cấp dịch vụ AI mạnh mẽ cho khách hàng đám mây của họ. Tuy nhiên, nỗ lực này của Amazon đã kéo dài ít nhất 4 năm nhưng vẫn chưa đạt được hiệu quả mong muốn, vì ngành công nghiệp công nghệ đã quá quen thuộc với nền tảng CUDA của Nvidia.
Theo một trong những tài liệu nội bộ, năm ngoái, tỷ lệ sử dụng chip Trainium trong số các khách hàng lớn nhất của AWS chỉ bằng 0,5% so với GPU của Nvidia. Inferentia, một chip AI khác của AWS, cao hơn một chút với tỷ lệ 2,7%. Đánh giá này đo lường mức độ sử dụng các loại chip AI khác nhau thông qua dịch vụ đám mây của AWS.
Mọi thứ khá trái ngược với triển vọng lạc quan mà các giám đốc điều hành của Amazon từng chia sẻ. Trong cuộc họp báo cáo thu nhập vào tháng 4, Giám đốc điều hành Andy Jassy nói rằng nhu cầu cho chip tùy chỉnh của AWS là “khá cao”. Một số khách hàng tiềm năng bao gồm Snap, Airbnb và Anthropic.
Hoạt động kinh doanh chip của Amazon bắt đầu nghiêm túc khi họ mua lại công ty khởi nghiệp Annapurna Labs vào năm 2015 với giá khoảng 350 triệu USD. Thương vụ này giúp gã khổng lồ công nghệ tự thiết kế chip cho riêng mình.
“Sự phấn khích từ khách hàng đối với chip Trainium mới nhất đang tăng lên”, một đại diện của AWS nói, đồng thời cho biết rằng các chip AI của họ vẫn còn khá mới mẻ.
“Chúng tôi đang tiến bộ nhờ các chip AI tùy chỉnh. Việc xây dựng phần cứng tuyệt vời là một đầu tư dài hạn”, thêm đại diện này.
Trong nội bộ Amazon, nền tảng CUDA của Nvidia luôn được xem là rào cản lớn nhất cho sáng kiến chip AI. Ra mắt từ năm 2006, CUDA bao gồm các công cụ dành cho nhà phát triển, thư viện AI và ngôn ngữ lập trình giúp sử dụng GPU của Nvidia dễ dàng hơn. Sự thành công ban đầu của CUDA đã mang lại cho Nvidia một nền tảng cực kỳ hấp dẫn.
Trong một tuyên bố, Amazon chỉ mong đợi áp dụng chip AI ở mức độ khiêm tốn trừ khi nền tảng phần mềm của họ, AWS Neuron, có thể đạt được “sự cải tiến tương đương với CUDA”.
Theo BI, Neuron được thiết kế để giúp nhà phát triển dễ dàng xây dựng trên các chip AI của AWS, nhưng hiện tại việc này lại “gây cản trở cho việc chuyển từ NVIDIA CUDA”. Meta, Netflix và một số công ty khác đã yêu cầu AWS Neuron hỗ trợ song song dữ liệu được phân chia hoàn toàn (FSDP), một loại thuật toán đào tạo dữ liệu cho GPU. Nếu không, các công ty này sẽ không cân nhắc sử dụng chip Trainium.
Theo Giám đốc điều hành Snowflake Sridhar Ramaswamy, sự quen thuộc với CUDA làm cho việc chuyển đổi sang GPU khác trở nên khó khăn. Việc đào tạo các mô hình AI tốn kém và mất thời gian, vì vậy chọn thứ mà họ biết rõ - trong trường hợp này là CUDA - là điều mà nhiều nhà phát triển AI lựa chọn.
Đáp lại, người phát ngôn của Amazon nói với BI rằng AWS đang cung cấp cho khách hàng “sự lựa chọn và tính linh hoạt để sử dụng những gì phù hợp nhất” thay vì buộc phải chuyển đổi. Mục tiêu của AWS với Neuron không nhất thiết là tạo ra sự ngang bằng với CUDA.

CEO Amazon
Theo BI, chip Inferentia hiệu suất và hiệu quả chi phí khá kém so với các chip khác. Tài liệu cảnh báo rằng không thể thay thế nhu cầu GPU Nvidia của khách hàng bằng các dịch vụ của AWS có thể dẫn đến rủi ro dịch vụ bị trì hoãn.
Đầu năm nay, nhóm bán lẻ của Amazon đã sử dụng một cụm GPU Nvidia, bao gồm V100, A10 và A100, để xây dựng mô hình cho công cụ tạo hình ảnh AI mới. Vào tháng 1, James Hamilton, một SVP của Amazon cho biết một trong những dự án của ông đã sử dụng 13.760 GPU Nvidia A100.
Không rõ các chip AI của AWS đang hoạt động như thế nào do Amazon không chia nhỏ doanh số cụ thể của mảng đám mây. Trước đó vào tháng 4, CEO Jassy tiết lộ mảng sản phẩm AI của họ đang tạo ra doanh thu “nhiều tỷ USD” trong năm nay. Điều này rất quan trọng với AWS vì tốc độ tăng trưởng của họ đã chậm lại trong những năm gần đây.
Amazon đang đua nhau với trí tuệ nhân tạo - điều mà chuyên gia về kho bãi và vận chuyển này đã nên là người dẫn đầu. Trước đó, công ty đã tạo ra một cú sốc thương mại lớn trên internet bằng cách bán sách trực tuyến vào năm 1990, đổi mới thói quen đọc với Kindle và sử dụng AWS để khởi động ngành công nghiệp điện toán.
“Amazon thực sự lo sợ về việc mình sẽ bị tụt lại”, một nhân viên không tiết lộ tên nói.
Trong một email gửi tới Insider, đại diện của công ty cho biết Amazon đã sử dụng máy học và trí tuệ nhân tạo trong hơn 25 năm qua. Do đó, công ty vẫn rất lạc quan về triển vọng của mình.
“Amazon đang dẫn đầu toàn ngành về công nghệ. Dịch vụ điện toán đám mây AWS của chúng tôi có nhiều khách hàng và đối tác. Chúng tôi cũng đang đầu tư vào trí tuệ nhân tạo trên mọi lĩnh vực”, đại diện của Amazon nói.
Theo BI, Amazon đang nỗ lực khai thác sức mạnh của chatbot trí tuệ nhân tạo, trong đó bao gồm việc tăng cường năng suất, khởi đầu các dự án mới về trí tuệ nhân tạo và thúc đẩy dịch vụ điện toán đám mây. Một số nhân viên còn đề xuất tích hợp ChatGPT vào quy trình sáng tạo của Amazon.
Trong tài liệu “Phân tích cơ hội và ảnh hưởng của trí tuệ nhân tạo-ChatGPT sáng tạo”, thành viên của nhóm bán hàng cho biết họ có thể sử dụng công nghệ mới để nhanh chóng tìm kiếm các báo cáo tài chính và đối thủ cạnh tranh để đặt mục tiêu chiến lược. Chatbot cũng có thể giúp phân tích ý kiến và nhu cầu của khách hàng đối với một sản phẩm, từ đó cải thiện chất lượng dịch vụ hậu mãi cho người mua. Ngoài ra, chúng còn có thể dự đoán xu hướng và nội dung có khả năng trở nên phổ biến.
Đối với AWS, ChatGPT giúp tự động tính toán chi phí dịch vụ đám mây cho khách hàng. Nhóm Fresh hi vọng một ngày nào đó có thể cung cấp danh sách mua sắm dựa trên sự hỗ trợ của ChatGPT.
ChatGPT đóng vai trò quan trọng trong việc khắc phục sự cố và tăng cường năng suất bằng cách giảm bớt công việc thủ công, tài liệu đã chỉ ra.
Nguồn: BI, FT