
Sundar Pichai, người đứng đầu Google, đã nói rằng Trí tuệ nhân tạo "quan trọng hơn ... điện hoặc lửa." Andrew Ng, người sáng lập Google Brain và hiện đầu tư vào các công ty khởi nghiệp về trí tuệ nhân tạo, viết rằng "Nếu một người thông thường có thể thực hiện một nhiệm vụ tinh thần với thời gian suy nghĩ dưới một giây, chúng ta có thể có khả năng tự động hóa nó bằng trí tuệ nhân tạo hoặc hiện tại hoặc trong tương lai gần."
Sự hăng say của họ là có thể tha thứ. Có những tiến bộ đáng kinh ngạc trong lĩnh vực Trí tuệ nhân tạo, sau nhiều thập kỷ thất vọng. Ngày nay, chúng ta có thể yêu cầu trợ lý cá nhân kích hoạt bằng giọng nói như Alexa "Phát ban nhạc Television," hoặc dựa vào Facebook để gắn thẻ vào ảnh của chúng ta; Google Translate thường gần như chính xác như một người dịch. Trong nửa thập kỷ qua, tỷ đô la nghiên cứu và vốn đầu tư rủ vào lĩnh vực Trí tuệ nhân tạo; đó là môn học nóng nhất trong các chương trình khoa học máy tính tại MIT và Stanford. Ở Silicon Valley, những chuyên gia mới nổi về Trí tuệ nhân tạo yêu cầu mức lương và cổ phiếu lên đến nửa triệu đô la.
Nhưng có nhiều điều mà con người có thể làm nhanh chóng mà máy thông minh không thể. Ngôn ngữ tự nhiên vượt ra khỏi phạm vi của học sâu; những tình huống mới làm cho trí tuệ nhân tạo bối rối, như những con bò bị đặt lại ở lưới chắn. Không có gì cho thấy rằng những hạn chế này sẽ được giải quyết sớm. Một khi bạn đã thấy, bạn không thể không thấy được: học sâu, hiện tại là phương pháp chiếm ưu thế trong trí tuệ nhân tạo, sẽ không dẫn đến một Trí tuệ nhân tạo có khả năng tư duy trừu tượng và tổng quát về thế giới. Một mình nó, khả năng nó sẽ không tự động hóa các hoạt động hàng ngày của con người.

Để hiểu tại sao Trí tuệ Nhân tạo hiện đại giỏi ở một số điều nhưng kém ở mọi thứ khác, có ích khi hiểu cách học sâu hoạt động. Học sâu là toán học: một phương pháp thống kê trong đó máy tính học cách phân loại các mẫu bằng cách sử dụng mạng nơ-ron. Các mạng này có đầu vào và đầu ra, giống như các nơ-ron trong não của chúng ta; chúng được cho là "sâu" khi chúng có nhiều lớp ẩn chứa nhiều nút, với một đám đông kết nối đa dạng. Học sâu sử dụng một thuật toán gọi là backpropagation, hoặc backprop, điều chỉnh trọng số toán học giữa các nút, để một đầu vào dẫn đến đầu ra đúng. Trong nhận dạng tiếng nói, những âm tiết c-a-t nên chính là từ "cat"; trong nhận diện hình ảnh, một bức ảnh của mèo không nên được đặt nhãn là "chó"; trong dịch thuật, qui canem et faelem ut deos colunt nên hiện ra là "ai thờ phụng chó và mèo như thần thánh." Học sâu là "hướng dẫn" khi các mạng nơ-ron được đào tạo để nhận diện âm tiết, ảnh hoặc mối quan hệ giữa tiếng Latin và tiếng Anh bằng hàng triệu hoặc tỷ lệ, ví dụ đã được đánh dấu một cách công phu.
Tiến bộ của học sâu là sản phẩm của việc nhận dạng mẫu: các mạng nơ-ron ghi nhớ các loại vật và khá chắc chắn khi gặp lại chúng. Nhưng hầu hết mọi vấn đề thú vị trong nhận thức không phải là vấn đề phân loại. "Mọi người ngây thơ nghĩ rằng nếu bạn lấy học sâu và tăng kích thước lớp 100 lần, và thêm 1000 lần dữ liệu, một mạng nơ-ron sẽ có thể làm bất cứ điều gì mà một con người có thể làm," François Chollet, một nhà nghiên cứu tại Google nói. "Nhưng điều đó đơn giản không đúng."
Gary Marcus, giáo sư tâm lý học tại NYU và nguyên giám đốc phòng thí nghiệm Trí tuệ Nhân tạo của Uber, gần đây đã xuất bản một bộ ba bài luận độc đáo, đưa ra một đánh giá đánh giá về học sâu. Marcus tin rằng học sâu không phải là "chất tẩy thông cảm, mà chỉ là một công cụ trong số nhiều công cụ." Và nếu không có những phương pháp mới, Marcus lo lắng rằng Trí tuệ Nhân tạo đang hướng về một bức tường, phía sau đó là tất cả những vấn đề mà nhận diện mẫu không thể giải quyết. Quan điểm của ông được chia sẻ một cách im lặng với các mức độ độc lập độc lập độc lập độc lập với nhiều mức độ độc đáo, ngoại trừ Yann LeCun, giám đốc nghiên cứu Trí tuệ Nhân tạo tại Facebook, người mạnh mẽ đánh bại lập luận là "hoàn toàn sai lầm," và Geoffrey Hinton, giáo sư giáo sư tại Đại học Toronto và ông cố của backpropagation, người không thấy "chứng cứ" của một rào cản sắp tới.
Theo những người hoài nghi như Marcus, học sâu tham lam, giòi, mờ và nông cạn. Hệ thống tham lam vì chúng đòi hỏi tập dữ liệu đào tạo rất lớn. Giòi vì khi một mạng nơ-ron được thử nghiệm chuyển giao - đối mặt với tình huống khác biệt so với các ví dụ được sử dụng trong quá trình đào tạo - nó không thể bối cảnh hóa tình huống và thường xuyên bị hỏng. Chúng mờ vì, khác với các chương trình truyền thống với mã nguồn chính thức, có thể giải mã các tham số của các mạng nơ-ron chỉ trong ngữ cảnh của trọng số của chúng trong một địa lý toán học. Do đó, chúng là hộp đen, đầu ra của chúng không thể giải thích được, gây nghi ngờ về độ tin cậy và độ chệch của chúng. Cuối cùng, chúng là nông cạn vì chúng được lập trình với rất ít kiến thức bẩm sinh và không có khả năng hiểu biết chung về thế giới hoặc tâm lý con người.
Những hạn chế này có nghĩa là nhiều tự động hóa sẽ khó đạt được hơn so với những gì những người khen ngợi Trí tuệ Nhân tạo tưởng tượng. "Một chiếc ô tô tự lái có thể đi hàng triệu dặm, nhưng cuối cùng nó sẽ gặp phải một điều mới mà nó chưa từng trải nghiệm," giải thích Pedro Domingos, tác giả của The Master Algorithm và giáo sư khoa học máy tính tại Đại học Washington. "Hoặc xem xét việc điều khiển robot: Một robot có thể học cách nhặt một chai, nhưng nếu nó phải nhặt một cốc, nó lại bắt đầu từ đầu." Tháng 1, Facebook từ bỏ M, một trợ lý ảo dựa trên văn bản sử dụng con người để bổ sung và đào tạo hệ thống học sâu, nhưng không bao giờ đưa ra gợi ý hữu ích hoặc sử dụng ngôn ngữ một cách tự nhiên.
Vấn đề ở đâu? "Phải là chúng ta có một thuật toán học tốt hơn trong đầu chúng ta so với bất cứ thứ gì chúng ta đã tạo ra cho máy móc," Domingos nói. Chúng ta cần phải phát minh ra các phương pháp học máy tốt hơn, những người nghi ngờ tuyên bố. Phương thuốc cho Trí tuệ Nhân tạo, theo Marcus, là hỗn hợp: kết hợp học sâu với các kỹ thuật học không giám sát không phụ thuộc nhiều vào dữ liệu đào tạo được đánh dấu, cũng như mô tả cổ điển về thế giới với các quy tắc logic chiếm ưu thế trước sự nổi lên của học sâu. Marcus cho rằng mô hình tốt nhất của trí tuệ là chính chúng ta, và con người nghĩ theo nhiều cách khác nhau. Con cái ông có thể học các quy tắc chung về ngôn ngữ mà không cần nhiều ví dụ, nhưng họ cũng được sinh ra với những khả năng bẩm sinh. "Chúng ta được sinh ra biết rằng có mối quan hệ nhân quả trong thế giới, rằng toàn bộ có thể được tạo thành từ các phần, và rằng thế giới bao gồm những địa điểm và đối tượng tồn tại trong không gian và thời gian," ông nói. "Không có máy nào học được bất cứ điều đó sử dụng backprop."
Các nhà nghiên cứu khác có ý kiến khác nhau. "Chúng ta đã sử dụng những mô hình cơ bản như vậy [đối với học máy] từ những năm 1950," Pedro Domingos nói, "và cuối cùng, chúng ta sẽ cần một số ý tưởng mới." Chollet tìm nguồn cảm hứng trong tổ hợp chương trình, các chương trình có thể tự động tạo ra các chương trình khác. Nghiên cứu hiện tại của Hinton khám phá ý tưởng ông gọi là "các xốp," giữ lại backpropagation, thuật toán cho học sâu, nhưng giải quyết một số hạn chế của nó.
"Có nhiều câu hỏi cơ bản trong Trí tuệ Nhân tạo mà hoàn toàn chưa được giải quyết," Chollet nói, "và thậm chí là chưa được hỏi." Chúng ta phải trả lời những câu hỏi này vì có những nhiệm vụ mà nhiều con người không muốn thực hiện, như làm sạch toilet và phân loại khiêu dâm, hoặc mà máy móc thông minh sẽ làm tốt hơn, như phát hiện ra các loại thuốc để điều trị bệnh. Hơn nữa: có những điều mà chúng ta không thể làm được, hầu hết trong số đó chúng ta chưa thể tưởng tượng được.
Nỗi lo lắng về Trí tuệ Nhân tạo
- Bạn có thể ngừng hoảng sợ về Trí tuệ Nhân tạo siêu năng lực. Như Kevin Kelly viết, đó chỉ là một truyền thuyết.
- Một lo lắng khác bạn có thể loại bỏ khỏi danh sách? Lo ngại rằng robot sẽ chiếm hết công việc của chúng ta. Điều đó không phải là chuyện đơn giản như vậy.
- Nhưng Trí tuệ Nhân tạo đang trở thành một yếu tố ngày càng quan trọng trong tương lai của công việc. Chào mừng đồng nghiệp Trí tuệ Nhân tạo mới của bạn.
Bức ảnh của Mytour/Getty Images
