
Bộ não mềm mại của chúng ta có vẻ khác xa so với các vi mạch silic hóa chất trong bộ xử lý máy tính, nhưng các nhà khoa học có một lịch sử dài để so sánh hai hệ thống này. Như Alan Turing đã nói vào năm 1952: “Chúng ta không quan tâm đến việc não có độ nhão như bánh ngô lạnh.” Nói cách khác, chất liệu không quan trọng, chỉ cần khả năng tính toán.
Ngày nay, các hệ thống trí tuệ nhân tạo mạnh mẽ nhất sử dụng một loại học máy gọi là học sâu. Thuật toán của họ học bằng cách xử lý lượng lớn dữ liệu qua các lớp ẩn của các nút kết nối, được gọi là mạng nơ-ron sâu. Như tên của chúng gợi ý, mạng nơ-ron sâu được lấy cảm hứng từ các mạng nơ-ron thực sự trong não, với các nút được mô phỏng theo nơ-ron thực tế—hoặc ít nhất là theo những gì các nhà thần kinh biết về nơ-ron vào những năm 1950, khi một mô hình nơ-ron quan trọng mang tên perceptron được sinh ra. Kể từ đó, sự hiểu biết của chúng ta về sự phức tạp tính toán của từng nơ-ron đã mở rộng đáng kể, vì vậy nơ-ron sinh học được biết đến là phức tạp hơn so với nơ-ron nhân tạo. Nhưng phức tạp bao nhiêu?
Để tìm hiểu, David Beniaguev, Idan Segev và Michael London, tất cả đều tại Đại học Hebrew Jerusalem, huấn luyện một mạng nơ-ron sâu nhân tạo để mô phỏng các tính toán của một nơ-ron sinh học được mô phỏng. Họ chỉ ra rằng một mạng nơ-ron sâu đòi hỏi giữa năm và tám lớp nơ-ron kết nối để đại diện cho sự phức tạp của một nơ-ron sinh học duy nhất.
Ngay cả tác giả cũng không dự kiến được sự phức tạp như vậy. “Tôi nghĩ rằng nó sẽ đơn giản và nhỏ hơn,” Beniaguev nói. Anh ta mong đợi rằng ba hoặc bốn lớp sẽ đủ để hiểu các tính toán được thực hiện trong tế bào.
Timothy Lillicrap, người thiết kế thuật toán ra quyết định tại công ty trí tuệ nhân tạo thuộc sở hữu của Google, DeepMind, nói rằng kết quả mới này ngụ ý rằng có thể cần phải xem xét lại truyền thống cũ về việc so sánh lỏng lẻo một nơ-ron trong não với một nơ-ron trong ngữ cảnh của máy học. “Bài báo này thực sự giúp đẩy mạnh vấn đề về việc nghĩ về điều đó một cách cẩn thận hơn và đối mặt với mức độ bạn có thể tạo ra những tương tự,” anh ta nói.
Giống nhau nhất giữa nơ-ron nhân tạo và thực tế liên quan đến cách họ xử lý thông tin đầu vào. Cả hai loại nơ-ron đều nhận tín hiệu đầu vào và, dựa trên thông tin đó, quyết định liệu họ có gửi tín hiệu của mình đến các nơ-ron khác hay không. Trong khi nơ-ron nhân tạo dựa vào một phép tính đơn giản để đưa ra quyết định này, thì nhiều thập kỷ nghiên cứu đã chỉ ra rằng quá trình này phức tạp hơn nhiều trong nơ-ron sinh học. Các nhà nghiên cứu thần kinh tính toán sử dụng một hàm đầu vào-đầu ra để mô phỏng mối quan hệ giữa đầu vào mà nơ-ron sinh học nhận được qua các nhánh dài giống như cây, được gọi là dendrites, và quyết định của nơ-ron để gửi ra một tín hiệu.
Chức năng này là điều mà tác giả của công trình mới đã dạy cho một mạng nơ-ron sâu nhân tạo mô phỏng để xác định sự phức tạp của nó. Họ bắt đầu bằng cách tạo mô phỏng khổng lồ của hàm đầu vào-đầu ra của một loại nơ-ron với các nhánh dendrite đặc biệt ở phía trên và dưới, được biết đến là một nơ-ron chói, từ vỏ não của một con chuột. Sau đó, họ đưa mô phỏng vào một mạng nơ-ron sâu có đến 256 nơ-ron nhân tạo trong mỗi lớp. Họ tiếp tục tăng số lượng lớp cho đến khi họ đạt được độ chính xác 99% ở mức mili giây giữa đầu vào và đầu ra của nơ-ron mô phỏng. Mạng nơ-ron sâu đã dự đoán thành công hành vi của hàm đầu vào-đầu ra của nơ-ron với ít nhất năm—nhưng không quá tám—lớp nhân tạo. Trong hầu hết các mạng, điều đó tương đương với khoảng 1,000 nơ-ron nhân tạo cho chỉ một nơ-ron sinh học.
“[Kết quả này] tạo ra một cầu nối từ nơ-ron sinh học đến nơ-ron nhân tạo,” nói Andreas Tolias, một nhà nghiên cứu thần kinh tính toán tại Trường Y Khoa Baylor.
Tuy nhiên, tác giả của nghiên cứu cảnh báo rằng đó chưa phải là một tương ứng trực tiếp. “Mối quan hệ giữa số lớp bạn có trong một mạng nơ-ron và sự phức tạp của mạng không rõ ràng,” London nói. Vì vậy, chúng ta không thể thực sự nói được bao nhiêu sự phức tạp được đạt được bằng cách chuyển từ, ví dụ, bốn lớp lên năm. Cũng như chúng ta không thể nói rằng việc cần 1,000 nơ-ron nhân tạo có nghĩa là một nơ-ron sinh học chính xác là 1,000 lần phức tạp. Cuối cùng, có thể rằng việc sử dụng nhiều nơ-ron nhân tạo hơn mỗi lớp theo cách mũ của chúng sẽ dẫn đến một mạng nơ-ron sâu chỉ với một lớp duy nhất—nhưng điều này có thể yêu cầu nhiều dữ liệu và thời gian học thuật toán hơn.
“Chúng tôi đã thử nghiệm nhiều, nhiều kiến trúc với nhiều độ sâu và nhiều thứ, và chủ yếu là thất bại,” London nói. Các tác giả đã chia sẻ mã nguồn của họ để khuyến khích các nghiên cứu viên khác tìm ra một giải pháp khôn ngoan với ít lớp hơn. Nhưng, với khó khăn trong việc tìm ra một mạng nơ-ron sâu có thể mô phỏng nơ-ron với độ chính xác 99%, các tác giả tin rằng kết quả của họ đưa ra một so sánh có ý nghĩa cho các nghiên cứu tiếp theo. Lillicrap đề xuất nó có thể cung cấp một cách mới để liên kết các mạng phân loại hình ảnh, thường yêu cầu hơn 50 lớp, với não. Nếu mỗi nơ-ron sinh học giống như một mạng nơ-ron nhân tạo có năm lớp, thì có lẽ một mạng phân loại hình ảnh với 50 lớp tương đương với 10 nơ-ron thực sự trong một mạng sinh học.
Các tác giả cũng hy vọng kết quả của họ sẽ thay đổi kiến trúc mạng sâu tiên tiến trong lĩnh vực Trí tuệ Nhân tạo. “Chúng tôi kêu gọi thay thế công nghệ mạng sâu để làm cho nó gần với cách não hoạt động bằng cách thay thế mỗi đơn vị đơn giản trong mạng sâu ngày nay bằng một đơn vị biểu thị một nơ-ron, đã—riêng nó—sâu,” Segev nói. Trong kịch bản thay thế này, các nhà nghiên cứu và kỹ sư Trí tuệ Nhân tạo có thể cắm một mạng nơ-ron sâu có năm lớp như một “mạng nhỏ” để thay thế mỗi nơ-ron nhân tạo.
Nhưng một số người tự hỏi liệu điều này có thực sự mang lại lợi ích tính toán. “Tôi nghĩ đó là một câu hỏi mở, liệu có một lợi thế tính toán thực sự hay không,” nói Anthony Zador, một nhà thần kinh học tại Viện Nghiên cứu Harbor Lạnh. “Công việc này làm nền móng để kiểm tra điều đó.”
Ngoài các ứng dụng Trí tuệ Nhân tạo, bài báo mới cũng đóng góp vào một sự nhất quán ngày càng tăng về sức mạnh tính toán của cây dendrite và, gián tiếp, của nơ-ron đơn. Ngay từ năm 2003, ba nhà thần kinh học đã chỉ ra rằng cây dendrite của một nơ-ron chói thực hiện tính toán phức tạp bằng cách mô phỏng nó như một mạng nơ-ron nhân tạo hai lớp. Trong bài báo mới, các tác giả đã nghiên cứu những đặc điểm của nơ-ron chói đã truyền cảm hứng cho sự phức tạp lớn hơn rất nhiều trong các mạng nơ-ron sâu từ năm năm đến tám lớp của họ. Họ kết luận rằng điều đó đến từ cây dendrite, và từ một loại thụt chất nhận các tín hiệu hóa học trên bề mặt của các cành dendrite—những kết quả nằm trong khả năng làm việc trước đây trong lĩnh vực.
Một số người tin rằng kết quả này có nghĩa là các nhà thần kinh học nên làm cho nghiên cứu về các nơ-ron đơn trở nên quan trọng hơn. “Bài báo này làm cho việc nghĩ về các cành dendrite và nơ-ron cá nhân trở nên quan trọng hơn nhiều so với trước đây,” nói Konrad Kording, một nhà thần kinh học tính toán tại Đại học Pennsylvania. Người khác, như Lillicrap và Zador, đề xuất rằng tập trung vào nơ-ron trong một mạch sẽ quan trọng không kém để hiểu cách não thực sự sử dụng phức tạp tính toán của các nơ-ron đơn.
Dù sao, ngôn ngữ của mạng nơ-ron nhân tạo có thể mang lại cái nhìn mới về sức mạnh của các nơ-ron và, cuối cùng, não. “Nghĩ về các lớp và độ sâu và chiều rộng mang lại cho chúng ta một ý thức trực giác về độ phức tạp tính toán,” nói Grace Lindsay, một nhà thần kinh học tính toán tại Đại học London. Tuy nhiên, Lindsay cũng cảnh báo rằng công việc mới chỉ so sánh một mô hình với một mô hình. Thật không may, hiện tại không thể ghi lại toàn bộ chức năng nhập-đầu ra của một nơ-ron thực sự, vì vậy có lẽ còn nhiều điều đang diễn ra mà mô hình của một nơ-ron sinh học không nắm bắt được. Nói cách khác, các nơ-ron thực sự có thể phức tạp hơn.
“Chúng tôi không chắc chắn rằng từ năm đến tám thực sự là con số cuối cùng,” London nói.
Truyện gốc được tái bản với sự cho phép từ Quanta Magazine, một tờ báo độc lập biên tập thuộc Quỹ Simons có sứ mệnh làm tăng cường sự hiểu biết của công chúng về khoa học bằng cách đưa ra thông tin về các tiến triển và xu hướng nghiên cứu trong toán học và các ngành khoa học tự nhiên và cuộc sống.
