Vào cuối thế kỷ 20, nhà toán học Steve Smale đã liệt kê danh sách 18 bài toán chưa được giải quyết, trong đó bài cuối cùng nói về giới hạn trí tuệ của con người và máy móc.
Deep learning là một kỹ thuật trí tuệ nhân tạo để nhận dạng mẫu, một kỹ thuật thành công đang thâm nhập vào lĩnh vực khoa học máy tính. Mặc dù chúng ta thường thấy nó trong các tiêu đề tin tức nổi tiếng như khả năng chẩn đoán bệnh chính xác hơn bác sĩ, hay khả năng ngăn chặn tai nạn giao thông với tính năng lái xe tự động, nhưng thực tế là có nhiều hệ thống học sâu không đáng tin cậy và dễ bị đánh lừa.
Điều này khiến AI giống như một số con người quá tự tin, thường tự tin vượt qua khả năng thực tế của chúng. Trong khi con người tương đối giỏi trong việc phát hiện sai lầm của mình, nhiều AI lại không có cách nào để nhận biết khi chúng mắc lỗi. Đôi khi, hệ thống AI thậm chí còn khó nhận ra khi nó mắc lỗi hơn là tạo ra kết quả chính xác.

Nhà nghiên cứu từ Đại học Cambridge và Đại học Oslo cho biết sự bất ổn này là điểm yếu cốt lõi của AI hiện đại, và một nghịch lý toán học chỉ ra những hạn chế của AI. Nghịch lý này có thể bắt nguồn từ hai nhà toán học vĩ đại của thế kỷ 20, Alan Turing và Kurt Gödel. Vào đầu thế kỷ 20, các nhà toán học đã cố gắng chứng minh rằng toán học là ngôn ngữ cuối cùng để thống nhất khoa học. Tuy nhiên, Turing và Gödel đã phát hiện ra một nghịch lý ở trung tâm của toán học: chân lý của một số mệnh đề toán học nhất định không thể được chứng minh và một số vấn đề tính toán không thể được giải quyết bằng các thuật toán.
Vào cuối thế kỷ 20, nhà toán học Steve Smale đã tạo ra một danh sách gồm 18 bài toán chưa giải được, bài cuối cùng nói về giới hạn trí thông minh của con người và máy móc. Vấn đề này cho đến nay vẫn chưa được giải quyết, nhưng nó đặt ra một nghịch lý toán học lớn đầu tiên được Turing và Gödel nêu ra: toán học có những giới hạn cơ bản không thể vượt qua, và tương tự, các thuật toán trí tuệ nhân tạo cũng đối mặt với những vấn đề không thể giải quyết.

Một nghiên cứu mới cho thấy trí thông minh nhân tạo gặp phải giới hạn cố hữu ở mọi nơi, có thể là nguyên nhân dẫn đến nghịch lý toán học kéo dài hàng thế kỷ này. Bằng cách mở rộng cách tiếp cận được đề xuất bởi Gödel và Turing, các nhà nghiên cứu đã chỉ ra giới hạn của các thuật toán đối với mạng nơ-ron tính toán. Họ đề xuất một lý thuyết phân loại mô tả cách thức, trong những điều kiện nhất định, một mạng nơ-ron có thể được đào tạo để tạo ra một hệ thống AI đáng tin cậy.
Mạng nơ-ron là công cụ tiên tiến nhất trong lĩnh vực trí tuệ nhân tạo, chúng mô phỏng sơ lược các kết nối giữa các nơ-ron trong não. Trong một nghiên cứu mới, các nhà nghiên cứu cho biết trong một số trường hợp, các mạng nơ-ron tốt có thể tồn tại, nhưng không thể tạo ra một mạng nơ-ron đáng tin cậy vì nghịch lý này. Nói cách khác, cho dù chúng ta có dữ liệu chính xác đến đâu để xây dựng mạng nơ-ron, chúng ta vẫn không thể có được thông tin hoàn hảo cần thiết để tạo ra một mạng nơ-ron hoàn hảo 100%.
Không thể tính toán một mạng nơ-ron hiện có tốt đến đâu, dù nó được đào tạo thông qua nhiều dữ liệu. Bất kể thuật toán có được bao nhiêu dữ liệu, nó cũng sẽ không bao giờ tạo ra một mạng mà nó cần. Điều này tương tự với quan điểm của Turing: có những vấn đề tính toán không thể giải quyết bất kể sức mạnh tính toán và thời gian chạy.
Các nhà nghiên cứu cho biết, không phải tất cả trí thông minh nhân tạo đều không có lỗi. Trong một số trường hợp, nó chỉ đáng tin cậy trong các lĩnh vực cụ thể, sử dụng các phương pháp cụ thể. Tuy nhiên, đây không phải là những gì chúng ta thấy trong nhiều hệ thống.

Tiến sĩ Matthew Colbrook từ Khoa Toán ứng dụng và Vật lý Lý thuyết cho biết: 'Trong một số tình huống AI mắc lỗi là hoàn toàn ổn, nhưng nó cần phải trung thực về điều đó. Và đó không phải là những gì chúng ta đang thấy đối với nhiều hệ thống - không có cách nào để biết khi nào chúng tự tin hơn hay kém tự tin hơn về một quyết định'.
Giáo sư Anders Hansen từ Khoa Toán ứng dụng và Vật lý lý thuyết của Cambridge cho biết: 'Hiện tại, các hệ thống AI đôi khi có thể đoán được. Nhưng đến một lúc nào đó, bạn sẽ cảm thấy mệt mỏi vì không đạt được điều mình muốn, và bạn sẽ thử một phương pháp khác. Điều quan trọng là phải hiểu những hạn chế của các cách tiếp cận khác nhau. Chúng ta đang ở giai đoạn mà những thành công thực tế của AI vượt xa lý thuyết và sự hiểu biết. Cần có một chương trình tìm hiểu nền tảng của điện toán AI để thu hẹp khoảng cách này'.
'Khi các nhà toán học thế kỷ 20 xác định được những nghịch lý khác nhau, họ đã không ngừng nghiên cứu toán học. Họ đã cố gắng tìm ra những con đường mới, bởi vì họ hiểu những hạn chế', Colbrook nói. 'Đối với AI, đó có thể là trường hợp thay đổi đường dẫn hoặc phát triển con đường mới để xây dựng các hệ thống có thể giải quyết vấn đề một cách đáng tin cậy và minh bạch, đồng thời hiểu được những hạn chế của chúng'.
Giai đoạn tiếp theo của các nhà nghiên cứu là kết hợp lý thuyết xấp xỉ, phân tích số và cơ sở tính toán để xác định mạng nơ-ron nào có thể được tính toán bằng các thuật toán và mạng nào có thể ổn định và đáng tin cậy. Cũng giống như những nghịch lý về giới hạn của toán học và máy tính được Gödel và Turing xác định đã dẫn đến những lý thuyết nền tảng phong phú - mô tả cả những giới hạn và khả năng của toán học và tính toán.
https://Mytour.vn/got-chan-achilles-cua-tri-tue-nhan-tao-ai-khong-phai-la-ma-thanh-toan-nhu-moi-nguoi-tuong-20220324121355062.chn