Hệ thống AI mới của Google DeepMind đã đạt được điểm số ấn tượng tại cuộc thi toán quốc tế dành cho học sinh giỏi, chỉ thiếu một điểm để giành huy chương vàng. Liệu đây có phải là dấu hiệu cho thấy AI đang tiến gần hơn đến khả năng giải toán của con người?
Máy tính được tạo ra để tính toán nhanh hơn bất kỳ con người nào, nhưng toán học trình độ cao vẫn là lĩnh vực độc quyền của con người. Tuy nhiên, một bước đột phá của các nhà nghiên cứu tại Google DeepMind đã đưa các hệ thống AI đến gần hơn bao giờ hết để đánh bại các nhà toán học giỏi nhất.
Cặp đôi hệ thống mới, gọi là AlphaProof và AlphaGeometry 2, đã phối hợp với nhau để giải quyết các câu hỏi từ Olympiad Toán học Quốc tế, một cuộc thi toán học toàn cầu dành cho học sinh trung học đã được tổ chức từ năm 1959. Kỳ thi Olympiad bao gồm sáu câu hỏi khó đến mức khó tin mỗi năm, về đại số, hình học và lý thuyết số. Giành được huy chương vàng sẽ đưa bạn vào nhóm những nhà toán học trẻ xuất sắc nhất thế giới.
Nỗ lực kết hợp của hai hệ thống DeepMind không hoàn toàn ở đẳng cấp đó. Sau khi câu trả lời của họ được Giáo sư Timothy Gowers - người chiến thắng huy chương Fields, giải thưởng tương đương Nobel toán học, và bản thân cũng là một huy chương vàng Olympiad - chấm điểm, đội DeepMind đã đạt được 28/42 điểm - đủ cho một huy chương bạc, nhưng thiếu một điểm so với vàng.
Không giống như một nhà toán học là con người, các hệ thống này hoặc là hoàn hảo hoặc là vô vọng. Trong mỗi câu hỏi mà họ giải được, họ đều đạt điểm tuyệt đối, nhưng với hai trong số sáu câu hỏi, họ thậm chí không thể bắt đầu tìm ra câu trả lời. Ngoài ra, DeepMind, khác với các đối thủ con người, không bị giới hạn thời gian. Trong khi học sinh có chín giờ để giải quyết các vấn đề, thì các hệ thống DeepMind đã mất ba ngày làm việc liên tục để giải một câu hỏi, mặc dù đã giải quyết một câu hỏi khác chỉ trong vài giây.
Hai hệ thống AI với hai cách tiếp cận khác nhau
Hai hệ thống đã giải quyết thử thách này theo cách rất khác nhau. AlphaProof, hệ thống đã giải được ba bài toán, hoạt động bằng cách kết hợp một mô hình ngôn ngữ lớn - loại được áp dụng trong các chatbot tiêu dùng - với phương pháp 'học tăng cường' đặc biệt, tương tự như DeepMind đã sử dụng để giải trò chơi cờ vây. Bí quyết nằm ở việc tận dụng một phương pháp hiện có được gọi là 'toán học hình thức', một tập hợp các quy tắc cho phép viết chứng minh toán học như một chương trình chỉ chạy nếu đúng.
'Chúng tôi cố gắng xây dựng một cây cầu giữa hai lĩnh vực này', Thomas Hubert, người đứng đầu dự án AlphaProof, cho biết, 'để có thể sử dụng các đảm bảo từ toán học hình thức và dữ liệu sẵn có trong toán học phi chính thức.' Sau khi được đào tạo trên một lượng lớn bài toán viết bằng tiếng Anh, AlphaProof đã áp dụng kiến thức của mình để cố gắng tạo ra các chứng minh cụ thể bằng ngôn ngữ hình thức. Vì những chứng minh này có thể xác minh là đúng hay không, hệ thống có thể tự cải thiện. Phương pháp này có thể giải quyết các vấn đề khó, nhưng không phải lúc nào cũng nhanh chóng: mặc dù tốt hơn nhiều so với phương pháp thử và sai đơn giản, nhưng mất ba ngày để tìm ra mô hình hình thức chính xác cho một trong những câu hỏi khó nhất trong thử thách.
Hệ thống còn lại, AlphaGeometry 2, cũng kết hợp một mô hình ngôn ngữ với cách tiếp cận tập trung hơn vào toán học. Nhưng thành công của nó trong lĩnh vực hẹp hơn là các bài toán hình học thật sự đáng kinh ngạc: nó đã giải quyết được bài toán của mình chỉ trong 16 giây. Và, Gowers nói, đã chọn một con đường đáng ngạc nhiên để làm điều đó. 'Đã có một số ví dụ huyền thoại về các bằng chứng [do máy tính hỗ trợ] dài hơn cả Wikipedia. Điều này không phải là một trong những điều đó: chúng ta đang nói về một kết quả rất ngắn gọn, theo phong cách của con người.'