DeepMind xung đột với các nhà khoa học Nga về nghiên cứu trí tuệ nhân tạo lượng tử
Không có gì gì đặc biệt và truyền cảm hứng như một bước đột phá khoa học. Nhưng điều gì xảy ra khi các nhóm nhà khoa học khác nhau dường như không thể đồng意 về khoa học?
DeepMind, một công ty nghiên cứu thuộc Alphabet có trụ sở tại London, đã công bố một bài nghiên cứu hấp dẫn vào năm ngoái, trong đó nó tuyên bố đã giải quyết được thách thức lớn của “mô phỏng vật chất ở quy mô lượng tử bằng trí tuệ nhân tạo.” Bây giờ, gần tám tháng sau đó, một nhóm nghiên cứu học thuật từ Nga và Hàn Quốc có thể đã phát hiện ra một vấn đề với nghiên cứu gốc đặt cả nghiên cứu này vào vấn đề nghiêm trọng.
Những hệ quả của nghiên cứu tiên tiến này có thể rất lớn, nếu những kết luận của bài báo là đúng. Nói một cách đơn giản, chúng ta đang nói về khả năng sử dụng trí tuệ nhân tạo để khám phá cách mới để thao tác các khối xây dựng của vật chất.
Một hy vọng mới
Ý tưởng lớn ở đây liên quan đến khả năng mô phỏng tương tác lượng tử. Thế giới của chúng ta được tạo nên từ vật chất, được tạo thành từ các phân tử và các nguyên tử. Tại mỗi cấp độ trừu tượng, việc mô phỏng trở nên khó khăn hơn và khó khăn hơn.
Khi bạn đạt đến cấp độ lượng tử, tồn tại bên trong nguyên tử, vấn đề của việc mô phỏng tương tác tiềm năng trở nên rất khó khăn.
Theo bài đăng trên blog của DeepMind:
Để làm điều này trên máy tính đòi hỏi việc mô phỏng electron, các hạt subatomic quyết định cách nguyên tử liên kết để tạo thành phân tử và cũng chịu trách nhiệm cho dòng điện trong chất rắn.
Mặc dù đã có hàng thập kỷ nỗ lực và một số tiến bộ đáng kể, việc mô phỏng chính xác hành vi lượng tử cơ học của electron vẫn là một thách thức mở.
Vấn đề cơ bản là rất khó để dự đoán xác suất của một electron cụ thể kết thúc ở vị trí cụ thể. Và sự phức tạp tăng lên khi bạn thêm vào nhiều điều.
Như DeepMind đã chỉ ra trong cùng một bài đăng trên blog, một cặp nhà vật lý từ những năm 1960 đã đưa ra một đột phá:
Pierre Hohenberg và Walter Kohn nhận ra rằng không cần phải theo dõi từng electron cá nhân. Thay vào đó, việc biết xác suất để mọi electron ở mọi vị trí (tức là mật độ electron) là đủ để tính toán chính xác tất cả các tương tác. Kohn đã nhận giải Nobel Hóa học sau khi chứng minh điều này, từ đó sáng lập ra Lý thuyết Hàm mật độ (DFT).
Thật không may, DFT chỉ có thể đơn giản hóa quá trình đến mức độ nào đó. Phần "hàm" của lý thuyết này phụ thuộc vào con người để thực hiện toàn bộ công việc nặng nề.
Mọi thứ đã thay đổi vào tháng 12 khi DeepMind công bố một bài báo mang tựa đề “Đẩy ranh giới của hàm mật độ bằng cách giải quyết vấn đề electron phân phối.”
Trong bài báo này, đội ngũ DeepMind tuyên bố đã cải thiện đáng kể các phương pháp hiện tại để mô phỏng hành vi lượng tử thông qua việc phát triển một mạng nơ-ron:
Bằng cách biểu diễn hàm mật độ dưới dạng một mạng nơ-ron và tích hợp những thuộc tính chính xác này vào dữ liệu đào tạo, chúng tôi học được các hàm mật độ không chứa lỗi hệ thống quan trọng — dẫn đến một mô tả tốt hơn về một loạt các phản ứng hóa học.
Học giả nổi giận trở lại
Bài báo của DeepMind đã vượt qua quá trình đánh giá ban đầu và mọi thứ đều ổn. Cho đến khi tháng 8 năm 2022 đến và một nhóm tám học giả từ Nga và Hàn Quốc đã công bố một bình luận đặt câu hỏi về kết luận của nó.
Theo một thông cáo báo chí từ Viện Khoa học và Công nghệ Skolkovo:
Khả năng tổng quát hóa của trí tuệ nhân tạo của DeepMind không xuất phát từ các kết quả được công bố và cần được xem xét lại.
Nói một cách khác: các học giả đang tranh cãi về cách trí tuệ nhân tạo của DeepMind đưa ra kết luận của mình.
Theo những nghiên cứu viên bình luận, quá trình đào tạo mà DeepMind sử dụng để xây dựng mạng nơ-ron của mình đã dạy cho nó cách nhớ câu trả lời cho các vấn đề cụ thể mà nó sẽ đối mặt trong quá trình đánh giá - quá trình mà các nhà khoa học xác định xem một phương pháp có tốt hơn phương pháp khác hay không.
Trong bình luận của họ, các nhà nghiên cứu viết:
Mặc dù kết luận của Kirkpatrick và đồng nghiệp về vai trò của hệ thống FC/FS trong bộ dữ liệu huấn luyện có thể là chính xác, đó không phải là lý giải duy nhất có thể cho những quan sát của họ.
Theo quan điểm của chúng tôi, sự cải thiện về hiệu suất của DM21 trên bộ dữ liệu kiểm tra BBB so với DM21m có thể được gây ra bởi một lý do đơn giản hơn nhiều: sự trùng lặp không ý muốn giữa các bộ dữ liệu huấn luyện và kiểm tra.
Nếu điều này là đúng, điều đó có nghĩa là DeepMind thực sự không dạy một mạng nơ-ron để dự đoán cơ học lượng tử.
Sự Trở lại của Trí tuệ Nhân tạo
DeepMind đã phản ứng nhanh chóng. Công ty đã công bố phản hồi của mình vào cùng ngày như bình luận và đưa ra một sự phản đối ngay lập tức và kiên quyết:
Chúng tôi không đồng ý với phân tích của họ và tin rằng những điểm mà họ đề cập đến là hoặc không chính xác hoặc không liên quan đến các kết luận chính của bài báo và đánh giá chất lượng chung của DM21.
Nhóm mở rộng ý này trong phản biện của họ:
DM21 không ghi nhớ dữ liệu; điều này được thể hiện đơn giản bằng việc rằng Exc của DM21 thay đổi qua toàn bộ phạm vi khoảng cách được xem xét trong BBB và không bằng giới hạn tách rời vô hạn, như thể hiện trong Hình 1, A và B, cho H2+ và H2. Ví dụ, ở 6 Å, DM21 Exc cách giới hạn vô hạn khoảng ~13 kcal/mol cả trong H2+ và H2 (mặc dù ở hướng ngược nhau).
Và, trong khi nằm ngoài phạm vi của bài viết này để giải thích các từ ngữ chuyên ngành trên, chúng ta có thể an toàn giả định rằng DeepMind có thể đã chuẩn bị cho đối đáp cụ thể đó.
Liệu điều đó có giải quyết vấn đề hay không thì còn phải chờ xem. Tính đến thời điểm này, chúng ta vẫn chưa thấy phản biện thêm từ nhóm học thuật để xem liệu lo ngại của họ đã được giải quyết hay không.
Trong thời gian chờ đợi, có khả năng rằng những hệ lụy từ cuộc thảo luận này có thể đi xa hơn việc chỉ ảnh hưởng đến một bài nghiên cứu duy nhất.
Khi lĩnh vực trí tuệ nhân tạo và khoa học lượng tử trở nên ngày càng liên quan đến nhau, chúng cũng trở nên ngày càng bị kiểm soát bởi các tổ chức nghiên cứu doanh nghiệp có túi sâu.
Chuyện gì xảy ra khi có một đình chỉ khoa học - các bên đối lập không thể đồng ý về hiệu quả của một phương pháp công nghệ cụ thể thông qua phương pháp khoa học - và lợi ích doanh nghiệp trở nên quan trọng?
Bây giờ thì sao?
Nhân tố cơ bản của vấn đề có thể nằm ở khả năng không thể giải thích cách mô hình AI "nghiền số" để đến các kết luận của chúng.
Những hệ thống này có thể trải qua hàng triệu sự kết hợp trước khi đưa ra một câu trả lời. Sẽ là không thể giải thích từng bước của quá trình, chính vì vậy chúng ta cần những phương tiện giảm thiểu thuật toán và trí tuệ nhân tạo để giải quyết các vấn đề quy mô lớn mà con người hoặc máy tính không thể giải quyết trực tiếp.
Cuối cùng, khi các hệ thống AI tiếp tục mở rộng, chúng ta có thể đến một điểm nơi chúng ta không còn có công cụ cần thiết để hiểu cách chúng hoạt động. Khi điều này xảy ra, chúng ta có thể thấy sự chệch lệch giữa công nghệ doanh nghiệp và công nghệ mà đi qua đánh giá đồng nghiệp bên ngoài.
Điều này không phải là nói rằng bài báo của DeepMind là một ví dụ về điều này. Như nhóm học thuật đã viết trong thông cáo báo chí của họ:
Việc sử dụng hệ thống điện tử phân đoạn trong bộ dữ liệu đào tạo không phải là sự mới lạ duy nhất trong công việc của DeepMind. Ý tưởng của họ về việc đưa rằng các hạn chế vật lý vào một mạng nơ-ron thông qua bộ dữ liệu đào tạo, cũng như cách tiếp cận để đặt ra giới hạn vật lý thông qua đào tạo trên tiềm năng hóa học chất, có khả năng sẽ được sử dụng rộng rãi trong việc xây dựng các hàm DFT của mạng nơ-ron trong tương lai.
Nhưng chúng ta đang trải qua một mô hình công nghệ mới, táo bạo được động lực bởi trí tuệ nhân tạo. Có lẽ đã đến lúc chúng ta bắt đầu xem xét tương lai trông như thế nào trong một thế giới sau đánh giá đồng nghiệp.
