Một bài kiểm tra 'lẽ thường tình' mới cho trí tuệ nhân tạo có thể dẫn đến máy móc thông minh hơn
Nội dung do IBM và TNW cung cấp.
Các hệ thống trí tuệ nhân tạo hiện nay đang nhanh chóng phát triển để trở thành người bạn tốt nhất của con người. Chúng ta hiện đã có trí tuệ nhân tạo có thể pha chế whiskey đoạt giải, viết thơ, và hỗ trợ bác sĩ thực hiện các ca phẫu thuật rất chính xác. Nhưng điều duy nhất mà chúng không thể làm được — điều này, trên bề mặt, đơn giản hơn nhiều so với tất cả những điều đó — là sử dụng lẽ thường tình.
Lẽ thường tình khác biệt với trí tuệ ở chỗ nó thường là điều bẩm sinh và tự nhiên đối với con người, giúp họ điều hướng cuộc sống hàng ngày và thực sự không thể được dạy. Năm 1906, nhà triết học G. K. Chesterton viết rằng “lẽ thường tình là một thứ hoang dã, hung dữ, và vượt xa các quy tắc.”
Robot, tất nhiên, chạy theo các thuật toán chính là những quy tắc đó.
Vậy nên, không, robot hiện tại không thể sử dụng lẽ thường tình — nhưng nhờ vào những nỗ lực hiện tại trong lĩnh vực này, chúng ta hiện có thể đo lường khả năng lý luận tâm lý cốt lõi của trí tuệ nhân tạo, đưa chúng ta một bước closer.
Vậy tại sao việc giảng dạy lẽ thường tình cho trí tuệ nhân tạo lại quan trọng?
Thực sự, vấn đề quan trọng nằm ở chỗ lẽ thường tình sẽ làm cho trí tuệ nhân tạo trở nên xuất sắc hơn trong việc giúp chúng ta giải quyết các vấn đề thực tế. Nhiều người cho rằng các giải pháp dựa trên trí tuệ nhân tạo được thiết kế cho các vấn đề phức tạp, như chuẩn đoán điều trị Covid-19 chẳng hạn, thường thất bại, vì hệ thống không thể linh hoạt chịu đựng trong tình huống thực tế nơi vấn đề không dự đoán được, mơ hồ và không được xác định bởi quy tắc.
Lẽ thường tình bao gồm không chỉ khả năng xã hội và lý luận mà còn là một “ý thức ngây ngô về vật lý”.
Việc nhập lẽ thường tình vào trí tuệ nhân tạo có thể mang lại nhiều lợi ích cho con người; dịch vụ khách hàng tốt hơn, nơi một robot có thể thực sự hỗ trợ một khách hàng tức giận hơn là chỉ đẩy họ vào một vòng lặp “Chọn từ các lựa chọn sau đây” không ngừng. Nó có thể khiến cho ô tô tự động phản ứng tốt hơn đối với các sự cố đường bộ không mong muốn. Thậm chí nó có thể giúp quân đội rút thông tin quyết định giữa sự sống chết từ thông tin tình báo.
Vậy tại sao các nhà khoa học chưa thể giải mã mã nguồn sáng này của trí tuệ nhân tạo?
Gọi là “vật chất tối của trí tuệ nhân tạo”, lẽ thường tình vừa quan trọng cho sự phát triển tương lai của trí tuệ nhân tạo và, cho đến nay, vẫn là một điều khó nhìn thấy. Trang bị máy tính với lẽ thường tình thực sự đã là một mục tiêu của khoa học máy tính từ ngày đầu tiên của lĩnh vực này; vào năm 1958, nhà khoa học máy tính tiên phong John McCarthy đã công bố một bài báo có tiêu đề “Chương trình với lẽ thường tình” nơi ông xem xét cách logic có thể được sử dụng như một phương pháp đại diện thông tin trong bộ nhớ máy tính. Nhưng chúng ta chưa tiến gần nhiều hơn để biến điều này thành hiện thực từ khi đó.
Lẽ thường tình bao gồm không chỉ khả năng xã hội và lý luận mà còn là một “ý thức ngây ngô về vật lý” — điều này có nghĩa là chúng ta biết những điều nhất định về vật lý mà không cần phải giải các phương trình vật lý, như tại sao bạn không nên đặt một quả bóng bowling trên bề mặt nghiêng. Nó cũng bao gồm kiến thức cơ bản về các khái niệm trừu tượng như thời gian và không gian, giúp chúng ta lập kế hoạch, ước lượng và tổ chức. “Đó là kiến thức mà bạn nên biết,” nói Michael Witbrock, nghiên cứu viên trí tuệ nhân tạo tại Đại học Auckland.
Tất cả điều này có nghĩa là lẽ thường tình không phải là một điều chính xác, và do đó không thể được xác định dễ dàng bằng các quy tắc.
ĐẠI SỨ BÍ MẬT
Chúng ta đã thiết lập rằng lẽ thường tình đòi hỏi máy tính suy luận dựa trên các tình huống phức tạp, thực tế — điều mà con người dễ dàng làm, và bắt đầu hình thành từ khi còn nhỏ.
Các nhà khoa học máy tính đang tiến triển (chậm) nhưng ổn định hướng tới việc xây dựng đại lý trí tuệ nhân tạo có thể suy luận về trạng thái tâm lý, dự đoán hành động tương lai, và làm việc với con người. Nhưng để thấy xem chúng ta thực sự gần đến đâu, chúng ta cần một tiêu chuẩn nghiêm túc để đánh giá “lẽ thường tình” của trí tuệ nhân tạo, hoặc khả năng lý luận tâm lý.
Các nhà nghiên cứu từ IBM, MIT và Harvard đã tạo ra chính điều đó: ĐẠI SỨ, viết tắt của Action-Goal-Efficiency-coNstraint-uTility. Sau các bài kiểm tra và xác nhận, tiêu chuẩn này đã chứng minh có khả năng đánh giá khả năng lý luận tâm lý cốt lõi của một mô hình trí tuệ nhân tạo. Điều này có nghĩa là nó có thể thực sự mang lại cảm giác về nhận thức xã hội và có thể tương tác với con người trong các tình huống thực tế.
Để thể hiện lẽ thường tình, một mô hình trí tuệ nhân tạo phải có các biểu diễn tích hợp về cách con người lập kế hoạch.
Vậy AGENT là gì? AGENT là một bộ dữ liệu quy mô lớn về hoạt hình 3D được lấy cảm hứng từ các thí nghiệm nghiên cứu phát triển kognitiv ở trẻ nhỏ. Các hoạt hình mô tả người nào đó tương tác với các đối tượng khác nhau dưới các ràng buộc vật lý khác nhau. Theo IBM:
“Các video bao gồm các thử nghiệm riêng biệt, mỗi thử nghiệm bao gồm một hoặc nhiều video ‘làm quen’ với hành vi điển hình của một tác nhân trong một môi trường vật lý cụ thể, kết hợp với video ‘kiểm tra’ của cùng một hành vi của tác nhân trong một môi trường mới, được đánh dấu là ‘mong đợi’ hoặc ‘bất ngờ’, dựa trên hành vi của tác nhân trong các video ‘làm quen’ tương ứng.”
Sau đó, một mô hình phải đánh giá xem hành vi của tác nhân trong các video ‘kiểm tra’ có bất ngờ không, dựa trên các hành động nó học từ các video ‘làm quen’. Sử dụng tiêu chuẩn AGENT, mô hình đó sau đó được xác minh thông qua các thử nghiệm đánh giá lớn với sự đánh giá của con người, trong đó con người đánh giá các video ‘kiểm tra’ ‘bất ngờ’ như là bất ngờ hơn so với video ‘kiểm tra’ ‘mong đợi’.
Lẽ thường tình?
Thử nghiệm của IBM cho thấy để thể hiện lẽ thường tình, một mô hình trí tuệ nhân tạo phải có các biểu diễn tích hợp về cách con người lập kế hoạch. Điều này có nghĩa là kết hợp cả một ý thức cơ bản về vật lý và ‘đổi lợi ích-chi phí’, nghĩa là sự hiểu biết về cách con người thực hiện hành động “dựa trên tiện ích”, đổi lợi ích của mục tiêu của mình với chi phí để đạt được nó.
Mặc dù chưa hoàn hảo, nhưng các kết quả cho thấy AGENT là một công cụ chẩn đoán hứa hẹn cho việc phát triển và đánh giá lẽ thường tình trong trí tuệ nhân tạo, điều mà IBM cũng đang làm. Nó cũng cho thấy rằng chúng ta có thể sử dụng các phương pháp tâm lý phát triển truyền thống tương tự như những phương pháp được sử dụng để giảng dạy trẻ em về cách các đối tượng và ý tưởng liên quan nhau.
Trong tương lai, điều này có thể giúp giảm đáng kể nhu cầu đào tạo trong những mô hình này, giúp doanh nghiệp tiết kiệm năng lượng tính toán, thời gian và tiền bạc.
Robot vẫn chưa hiểu được ý thức của con người — nhưng với sự phát triển của các công cụ đánh giá như AGENT, chúng ta sẽ có khả năng đo lường xem chúng ta đang gần đến đâu.
