
Mô hình ngôn ngữ GPT-4 vừa ra mắt chính thức, hứa hẹn thay đổi cách con người tương tác với máy móc và cách máy tính phục vụ con người. Trong khi đó, cuộc đua nghiên cứu và phát triển sản phẩm trí tuệ nhân tạo giữa hai tên lớn Microsoft và Google cũng đang diễn ra gay gắt, với các thông tin chính thức được công bố. Tuy nhiên, đối với phần lớn người dùng các dịch vụ trực tuyến, những thuật ngữ và thông tin này thường gây khó hiểu và không hấp dẫn.
Thiếu đi những thuật ngữ và thông tin như vậy, việc mô tả cách những thuật toán máy học hoạt động và phục vụ hàng tỷ người sẽ trở nên vô cùng khó khăn.
Google giới thiệu API PaLM cho mô hình ngôn ngữ
PaLM, một mô hình ngôn ngữ mới, tương tự như LLaMa của Meta và GPT của OpenAI. Google vừa thông báo ra mắt API cho mô hình này, kết hợp với các công cụ phục vụ doanh nghiệp.
Với PaLM, các doanh nghiệp có thể tùy chỉnh mô hình để thực hiện nhiều tác vụ khác nhau. Từ việc biến mô hình thành chatbot hỗ trợ khách hàng, biến nó thành công cụ tổng hợp thông tin trong môi trường doanh nghiệp, ví dụ như tổng hợp ý chính trong các cuộc họp trực tuyến, thậm chí là viết code, Google khẳng định PaLM có thể làm tất cả.
Microsoft đầu tư mạnh mẽ, sử dụng GPU Nvidia H100 mạnh mẽ cho xử lý trí tuệ nhân tạo
Trên trang blog chính thức của Microsoft, hãng vừa tiết lộ chi tiết kỹ thuật của hệ thống máy tính đào tạo thuật toán trí tuệ nhân tạo, để công bố việc nâng cấp toàn diện dàn máy chủ vận hành trí tuệ nhân tạo ChatGPT trên nền tảng đám mây Azure.
Trước đó, cụm máy chủ Azure xử lý trí tuệ nhân tạo của Microsoft đã được trang bị cụm máy chủ thế hệ trước, ND A100 v4, với các GPU Nvidia A100 Tensor Core theo kiến trúc Ampere, được tối ưu hóa để gia tăng hiệu suất xử lý các thuật toán học máy. Microsoft đã trang bị hàng nghìn GPU như vậy cho hạ tầng của mình, tạo điều kiện cho việc sử dụng sức mạnh tính toán của các mô hình ngôn ngữ cũng như các thuật toán trí tuệ nhân tạo của OpenAI và các đối tác doanh nghiệp khác mong muốn tận dụng sức mạnh tính toán của các mô hình ngôn ngữ và thuật toán trí tuệ nhân tạo.
Scott Guthrie, phó chủ tịch phụ trách AI và điện toán đám mây của Microsoft, thông báo rằng họ đã đầu tư hàng trăm triệu USD để nâng cấp hệ thống. Hiện nay, máy chủ Azure phục vụ xử lý trí tuệ nhân tạo được trang bị cả GPU A100 thế hệ trước và GPU H100 Tensor Core, kiến trúc Hopper mới nhất của Nvidia, được giới thiệu vào năm ngoái.
Các đối tác của Microsoft thuê máy chủ Azure xử lý trí tuệ nhân tạo sẽ trải nghiệm hệ thống có khả năng mở rộng cực kỳ mạnh mẽ, với sức mạnh từ 8 đến hàng nghìn GPU tuỳ thuộc vào nhu cầu và ngân sách của họ. Bên trong mỗi máy ảo NC H100 v5 VM, có các thông số kỹ thuật như sau:
- 8 GPU Nvidia H100 Tensor Core, được kết nối thông qua cầu nối NVSwitch và NVLink 4.0
- Cầu nối dữ liệu Nvidia Quantum-2 CX7 InfiniBand với băng thông 400 Gb/s, mỗi máy ảo có tốc độ xử lý dữ liệu lên đến 3.2 Tb/s.
- Cầu nối NVSwitch và NVLink 4.0 tạo ra băng thông dữ liệu lên đến 3.6 TB/s trong toàn bộ cụm 8 GPU H100.
- 4 CPU Intel Xeon Scalable.
- Kết nối PCIe Gen 5, với băng thông của mỗi GPU đạt ngưỡng 64GB/s.
- RAM DDR5 4800MHz 16 Channel.
Đọc qua cấu hình của từng cụm máy chủ, ta có thể thấy rõ rằng, với sự phát triển không ngừng của các mô hình ngôn ngữ và thuật toán học máy, số lượng tham số cần thiết để tạo ra nội dung chân thực và đáp ứng yêu cầu ngày càng tăng. Do đó, sức mạnh tính toán cũng phải được nâng cao theo cấp số nhân. Điều này dẫn đến việc cả chi phí mua sắm và vận hành các thiết bị sẽ tăng lên trong tương lai. Thương mại hóa các hệ thống máy chủ này cho các đối tác doanh nghiệp là lựa chọn hợp lý nhất.
Đọc thêm:
