
Google đang nỗ lực hồi phục sau sự thất bại của chatbot Bard tích hợp vào công cụ tìm kiếm trực tuyến, đã khiến họ mất đến 100 tỷ USD vốn hóa. Tuy nhiên, một thách thức khác đang nổi lên trong cuộc đua về 'AI hóa' tìm kiếm trực tuyến: Chi phí vận hành.
Giám đốc điều hành Sam Altman của OpenAI, nhà phát triển ChatGPT, đã thừa nhận trên Twitter rằng, việc vận hành mô hình ngôn ngữ GPT-3.5 hiện tại của họ đã khiến nhiều người lo sợ. Điều này có thể là lý do mà họ quyết định thương mại hóa ChatGPT, thông qua việc cung cấp gói dịch vụ ChatGPT Plus cho người dùng cá nhân, và OpenAI Foundry cung cấp dịch vụ vận hành chatbot tùy chỉnh cho các doanh nghiệp. Trong khi đó, các nhà lãnh đạo của các tập đoàn công nghệ cũng đang tìm cách vận hành chatbot AI mà không gây thua lỗ.
Một khi ánh mặt trời chiếu sáng, những bước chân của tôi tựa như những dải ánh sáng mềm mại trên mặt đường. Ánh nắng lấp lánh qua những tán lá xanh mướt, tạo nên bức tranh thiên nhiên tuyệt vời giữa lòng thành phố ồn ào.
Nói chuyện với một người bạn thân qua điện thoại, tôi cảm thấy như được lắng nghe bởi một người tri kỷ. Cùng nhau chia sẻ những niềm vui, nỗi buồn và những ước mơ trong lòng, chúng tôi như hòa mình vào một thế giới riêng, nơi chỉ có chúng tôi và những suy tư chân thành nhất.
Trong lòng tôi, câu chuyện về những cuộc phiêu lưu của những chiến binh dũng cảm luôn đem lại cho tôi niềm cảm hứng mãnh liệt. Từ những cuộc đối đầu ác liệt đến những khoảnh khắc ngọt ngào bên người thân yêu, mỗi trang sách mở ra là một thế giới mới đầy hấp dẫn.
Theo ước tính của Morgan Stanley, trong năm ngoái có khoảng 3,3 nghìn tỷ lượt tìm kiếm trên Google. Chi phí vận hành mỗi lượt tìm kiếm trực tuyến chỉ là 1/5 cent Mỹ, tương đương khoảng 46 VNĐ. Tuy nhiên, nếu sử dụng ứng dụng chatbot AI Bard, chi phí này sẽ tăng lên phù hợp với lượng từ ngữ mà mô hình ngôn ngữ phải xử lý để phục vụ người dùng.Theo dự đoán của Morgan Stanley, vào năm 2024, nếu Bard chiếm 1/2 lượng tìm kiếm trực tuyến và mỗi lượt trả về kết quả dưới dạng đoạn văn 50 chữ, thì chi phí vận hành mà Google phải chi trả sẽ lên đến khoảng 6 tỷ USD.SemiAnalysis dự đoán với con số nhỏ hơn. Theo họ, nếu sử dụng ứng dụng Bard, Alphabet sẽ tốn kém khoảng 3 tỷ USD. Chi phí này bao gồm việc sử dụng số lượng lớn chip TPU xử lý deep learning được phát triển bởi Google cùng với các chi phí vận hành được tối ưu hóa.Việc sử dụng trí tuệ nhân tạo chatbot đòi hỏi một lượng lớn tài nguyên tính toán và điện năng. Chi phí ban đầu và khả năng xử lý tạo ra áp lực đáng kể cho các doanh nghiệp công nghệ.Công việc tạo ra các chatbot với ngôn ngữ tự nhiên và thân thiện không phải là điều dễ dàng. Đòi hỏi sự đầu tư lớn về tài nguyên máy tính và điện năng.Việc vận hành các chatbot không chỉ tốn kém về mặt tài nguyên mà còn ảnh hưởng đến môi trường với lượng khí thải đáng kể. Điều này đặt ra thách thức lớn cho các doanh nghiệp công nghệ trong việc tối ưu hóa quá trình hoạt động của họ.Tối ưu chi phí là chìa khóa quan trọng giúp doanh nghiệp phát triển bền vững trong thị trường cạnh tranh ngày nay.
Chatbot AI đang trở thành một phần không thể thiếu trong việc tối ưu hóa trải nghiệm của khách hàng trên các nền tảng trực tuyến.Với sự phát triển của công nghệ, việc sử dụng mô hình ngôn ngữ để tăng cường khả năng tương tác của chatbot đang trở nên phổ biến.
Alphabet đang đối mặt với áp lực để triển khai chatbot Bard cho công cụ tìm kiếm của họ, bất chấp chi phí. Điều này đến từ việc Microsoft đã sớm tích hợp Prometheus vào trình duyệt Edge và công cụ Bing, mục tiêu là giành lại thị phần tìm kiếm trực tuyến từ Google.Nhóm nghiên cứu và kỹ sư tại Alphabet đã nỗ lực không ngừng để phát triển mô hình ngôn ngữ quy mô lớn với chi phí thấp hơn. Sự phức tạp và kích thước của mô hình ảnh hưởng đến chi phí vận hành, nhưng mục tiêu vẫn là tạo ra các mô hình mạnh mẽ với chi phí hợp lý.ChatGPT, dựa trên mô hình GPT-3.5, có thể xử lý với hàng tỷ tham số. Sự phát triển của các mô hình như GPT-4 cũng tạo ra cơ hội để tăng cường khả năng vận hành và cải thiện hiệu suất, mặc dù có thể đi kèm với chi phí cao hơn.Một nhà quản lý ẩn danh trong lĩnh vực công nghệ cho biết với Reuters rằng, chi phí vận hành chatbot AI thế hệ mới hiện nay đang cao đến mức không thể mở rộng rộng rãi cho hàng triệu người dùng. Cần có những biện pháp giảm chi phí huấn luyện thuật toán cũng như chi phí “inference”, chip xử lý cũng phải tiêu thụ ít điện hơn trong quá trình hoạt động, thì việc thương mại hóa những giải pháp cao cấp hơn ChatGPT mới trở nên khả thi.Để biết thêm thông tin: Vấn đề lâu dài là làm thế nào để giảm quy mô tham số của mô hình ngôn ngữ từ 10 đến 100 lần mà không ảnh hưởng đến độ chính xác của văn bản trả về. Nếu làm được điều này, việc vận hành thuật toán trên những cụm siêu máy tính sẽ được giảm tải đáng kể, lượng điện tiêu thụ giảm, và chi phí cũng giảm theo đó.
Trong tương lai gần, việc ứng dụng các giải pháp thương mại như OpenAI Foundry hoặc ChatGPT Plus sẽ là lựa chọn tốt để giải quyết vấn đề. Đối với Google, họ dự định thu nhỏ quy mô của mô hình ngôn ngữ LaMDA, nền tảng của Bard, để có thể phục vụ hàng triệu người dùng một cách hiệu quả.Theo Reuters