Các nhà khoa học và triết gia đã soạn thảo một danh sách dài các chỉ mục, dựa trên các lý thuyết về nhận thức của con người.
Trong năm 2021, kỹ sư Blake Lemoine đã gây tiếng vang khi nhận xét rằng hệ thống LaMDA của Google có nhận thức. Điều này đã gây ra nhiều tranh cãi trong cộng đồng.
Mặc dù các hệ thống trí tuệ nhân tạo như chatbot sử dụng mô hình ngôn ngữ lớn như ChatGPT hay LaMDA có vẻ như có ý thức, nhưng thực tế chúng chỉ là các hệ thống dự đoán chữ viết ra từ dữ liệu con người.
Vậy làm thế nào để nhận biết liệu hệ thống AI đã có nhận thức hay chưa?
Một nhóm nghiên cứu gồm 19 người, bao gồm các nhà khoa học, chuyên gia thần kinh học và triết gia, đã họp để tìm ra giải pháp. Theo họ, không thể dùng một bài thử để xác định, mà cần một danh sách dài các chỉ mục để khẳng định một hệ thống AI có nhận thức hay không.
Trong một báo cáo mới đăng tải trên arXiv, các nhà nghiên cứu đã đề xuất 14 tiêu chuẩn để áp dụng vào các kiến trúc trí tuệ nhân tạo.
Nhóm nghiên cứu khẳng định họ chưa tìm thấy bất kỳ hệ thống nào thỏa mãn tất cả các tiêu chuẩn, tức là con người vẫn chưa có một AI có nhận thức.
Theo ông Robert Long, một trong những tác giả của báo cáo, đây là một khuôn khổ mới mà các nhà nghiên cứu sau này có thể sử dụng để đánh giá các hệ thống AI.
Ông Long nhận định rằng ý niệm về một hệ thống trí tuệ nhân tạo mới thực sự bắt đầu lan tỏa rộng rãi trong những năm gần đây.
Một trong những thách thức đầu tiên là định nghĩa khái niệm 'nhận thức', mà nhóm nghiên cứu đã thực hiện bằng cách sử dụng khái niệm 'nhận thức phi thường' của triết gia Ned Block.
Để xác định 'nhận thức phi thường' của một thuật toán, nhóm nghiên cứu đã tiếp cận lời giải dựa trên lý thuyết, không giống như não bộ con người.
Theo Liad Mudrik, một nhà tâm thần học nhận thức, nhóm đã sử dụng học thuyết về nhận thức con người để tìm dấu hiệu của những đặc điểm này trong các kiến trúc trí tuệ nhân tạo.
Để được công nhận, một học thuyết cần dựa trên lý thuyết khoa học thần kinh và được chứng minh bởi nhiều bằng chứng từ thực nghiệm, như dữ liệu từ việc quét não đang thử nghiệm.
Có tổng cộng 6 học thuyết được giới thiệu trong báo cáo mới. Một trong số đó là Học thuyết Xử lý Hồi quy, cho rằng việc đưa thông tin vào một vòng xử lý hồi quy là yếu tố quan trọng trong việc hình thành nhận thức.
Các Học thuyết về Quy luật Cao hơn nhấn mạnh vai trò của việc biểu đạt thông tin đầu vào cơ bản từ các giác quan trong quá trình nhận thức.
Nhà khoa học lý luận rằng một hệ thống AI thỏa mãn càng nhiều chỉ mục, khả năng có nhận thức càng cao. Một chuyên gia máy học đã áp dụng danh sách này vào các hệ thống AI và phải đối mặt với những quyết định khái niệm chưa rõ ràng.
Kết quả như sau: Nhiều kiến trúc thỏa mãn phần lớn Học thuyết Xử lý Hồi quy. Một mô hình ngôn ngữ lớn như ChatGPT tiến rất gần tới một không gian xử lý thông tin chung.
Hệ thống PaLM-E của Google, nhận tín hiệu đầu vào từ nhiều cảm biến và thỏa mãn điều kiện 'trung gian và hiện thân'.
Trong khi đó, hệ thống Adaptive Agent (AdA) của DeepMind, được dùng để điều khiển một hiện thân trong môi trường 3D, thỏa mãn yếu tố 'trung gian và hiện thân' và có khả năng cảm quan không gian.
Vì không hệ thống nào đáp ứng được tất cả điều kiện, không phần mềm nào được coi là “có nhận thức”. Danh sách các chỉ mục vẫn còn đang được hoàn thiện và không phải là nỗ lực duy nhất.
Adeel Razi, nhà nghiên cứu về hệ thống thần kinh máy tính tại Đại học Monash, nhấn mạnh rằng các học thuyết hiện tại vẫn chưa hoàn thiện và dựa trên hiểu biết của con người về nhận thức. Ông cũng nhấn mạnh rằng nhận thức tồn tại dưới nhiều dạng khác nhau, như nhận thức của các loài động vật khác.
Theo tạp chí Science