TPO - Các nhà nghiên cứu Trung Quốc đã phát triển một bộ xử lý tensor (TPU) mới, thay thế chất bán dẫn silicon truyền thống bằng ống nano carbon. Chip này hứa hẹn mang lại hiệu quả năng lượng cao hơn cho trí tuệ nhân tạo (AI).

Khác với TPU thông thường, con chip màu đỏ mới là con chip đầu tiên áp dụng ống nano carbon - cấu trúc hình trụ nhỏ với các nguyên tử carbon sắp xếp theo hình lục giác thay vì vật liệu bán dẫn truyền thống như silicon. (Ảnh: Sankai)
Các mô hình AI thường yêu cầu lượng tính toán lớn và dữ liệu phong phú, gây khó khăn trong việc đào tạo và mở rộng. Do nhu cầu ứng dụng AI ngày càng tăng, các nhà khoa học đang tìm kiếm các giải pháp mới từ bộ xử lý đến bộ nhớ máy tính để tiết kiệm năng lượng hơn khi thực hiện các phép tính.
Vào năm 2015, các nhà khoa học Google đã phát minh ra TPU để giải quyết vấn đề này. Những chip chuyên dụng này hoạt động như các bộ tăng tốc phần cứng cho các phép toán tensor, giúp đào tạo và vận hành mô hình AI nhanh chóng và hiệu quả hơn bằng cách giảm tải từ CPU và GPU.
Khác với TPU truyền thống, chip mới sử dụng ống nano carbon, cấu trúc hình trụ với các nguyên tử carbon sắp xếp theo hình lục giác thay vì silicon. Cấu trúc này cho phép electron di chuyển dễ dàng với điện trở thấp, làm cho ống nano carbon trở thành chất dẫn điện xuất sắc.
Các nhà khoa học Trung Quốc cho biết TPU mới của họ tiêu thụ chỉ 295 microwatt (μW) điện năng và có thể thực hiện 1 nghìn tỷ phép tính trên mỗi watt. Điều này khiến TPU gốc carbon của họ tiết kiệm năng lượng gấp gần 1.700 lần so với chip của Google.
'Từ đến Sora, trí tuệ nhân tạo đang khởi xướng một cuộc cách mạng mới, nhưng công nghệ bán dẫn silicon truyền thống ngày càng không đáp ứng nổi nhu cầu xử lý dữ liệu khổng lồ. Chúng tôi đã tìm ra giải pháp cho thách thức toàn cầu này,' Zhiyong Zhang, đồng tác giả bài báo và giáo sư điện tử tại Đại học Bắc Kinh, cho biết.
TPU mới được trang bị 3.000 bóng bán dẫn ống nano carbon và thiết kế theo cấu trúc mảng tâm thu — mạng lưới các bộ xử lý sắp xếp theo dạng lưới. Cấu trúc này cho phép TPU thực hiện nhiều phép tính đồng thời bằng cách phối hợp luồng dữ liệu và đảm bảo rằng mỗi bộ xử lý thực hiện một phần nhỏ của nhiệm vụ cùng lúc.
Quá trình xử lý song song này giúp thực hiện các phép tính nhanh hơn, điều này rất cần thiết cho các mô hình AI xử lý khối lượng dữ liệu lớn. Nó cũng giảm tần suất đọc và ghi dữ liệu vào bộ nhớ — đặc biệt là bộ nhớ truy cập ngẫu nhiên tĩnh (SRAM), Zhang giải thích. Nhờ giảm thiểu các hoạt động này, TPU mới có thể thực hiện các phép tính nhanh hơn và tiết kiệm năng lượng hơn.
Các nhà nghiên cứu tin rằng trong tương lai, công nghệ dựa trên ống nano carbon có thể thay thế các chip silicon với hiệu suất tiết kiệm năng lượng hơn. Họ dự định tiếp tục cải tiến con chip để nâng cao hiệu suất và mở rộng khả năng, bao gồm cả việc tích hợp TPU vào CPU silicon.