Khi Máy Móc Ngày Càng Thông Minh, Chúng Ta Sẽ Tương Tác Với Chúng Như Thế Nào?

Đạp xe trong một thành phố đồi núi và đông đúc như San Francisco không chỉ mang lại bài tập về thể chất mà còn là một bài tập về trí óc. Tôi sống sót trong giao thông không chỉ bằng cách làm việc với cơ bắp đùi mà còn là khả năng tưởng tượng về suy nghĩ và ý định của người khác: Người đang đi xe máy Bird có tránh vũng nước đó không? Tài xế UPS có cố gắng chạy qua đèn vàng không? Nhưng xe tự lái làm tôi bối rối.
Năm ngoái, khi General Motors tăng cường thử nghiệm các phương tiện tự động Cruise của mình, tôi bắt đầu bắt gặp những chiếc xe hatchback trắng năng động với cảm biến trên nóc một hoặc nhiều lần mỗi ngày. Ban đầu, những chiếc xe quá thận trọng và bị rối, nhận được những tiếng còi tức giận từ tài xế người lái vì phanh không cần thiết và rẽ nhanh. Thời gian trôi qua, tôi cảm thấy có khả năng đọc và thậm chí là lợi dụng những con robot e dè này. Nếu tôi lạc khỏi làn đường xe đạp, chúng sẽ rơi lại phía sau, để tôi có thêm không gian để di chuyển. Tại các điểm dừng bốn hướng, chúng thường trì trệ, để tôi có thể lao về phía trước.

Sau đó, một vài phương tiện Cruise đã làm cho tôi ngạc nhiên trong một tuần với những cử chỉ lái xe tự tin hơn. Thay vì đợi lịch sự phía sau xe đạp, chúng lao vút qua. Thuyết về tâm trí robot của tôi bị tiêu tan, thay vào đó là một cảm giác bất an: Khi Trí Tuệ Nhân Tạo trở nên mạnh mẽ và quả quyết hơn, chúng ta sẽ tương tác với nó như thế nào?
Nói chung, mọi người thích nghi tốt với công nghệ mới. Chúng ta lái những khối kim loại chạy nhanh và giao tiếp thông qua biểu tượng nhỏ với sự duyên dáng. Nhưng các hệ thống Trí Tuệ Nhân Tạo phức tạp và động, như xe robot, sẽ thách thức chúng ta theo cách mới. Ngàn năm tiến hóa sinh học và văn hóa đã tạo ra cho chúng ta những bộ não và xã hội được đào tạo để đọc hành vi, tình huống và vi phạm của người khác. Với máy tính, theo Iyad Rahwan, giám đốc Viện Max Planck về Phát triển Con người ở Berlin, “chúng ta đang điên đảo trong bóng tối.”
Thói quen của chúng ta là giả định, có lẽ mà không nhận ra, rằng các hệ thống Trí Tuệ Nhân Tạo có tâm trí giống như chúng ta. Trong những năm 1960, giáo sư Joseph Weizenbaum của MIT tạo ra chatbot đầu tiên thế giới, ELIZA, và lập trình nó nhái một bác sĩ tâm lý bằng cách phản ứng với các tuyên bố gõ bằng cách đặt câu hỏi. Đến sự sốc của Weizenbaum, các đối tượng của ông cảm nhận được trí tuệ và cảm xúc giống con người trong bot. “Điều tôi không nhận ra là những tiếp xúc rất ngắn với một chương trình máy tính tương đối đơn giản có thể gây ra tư duy mạnh mẽ ở những người bình thường hoàn toàn,” ông viết.
Nguy cơ của việc không suy nghĩ rõ về Trí Tuệ Nhân Tạo đã tăng lên từ đó; sớm thôi, chúng sẽ trở nên quan trọng. Các nhân vật ảo có mã hóa nữ tính của các trợ lý ảo như Alexa của Amazon làm chúng ta không còn cân nhắc đến những rủi ro khi để các công ty lớn ghi lại không gian riêng tư của chúng ta. Cách tài xế, người đạp xe và người đi bộ hiểu và phản ứng với các phương tiện robot là vấn đề quyết định giữa sự sống và cái chết.
Ngay cả khi có nhiều hơn một phần nhỏ giây để suy nghĩ về quyết định của hệ thống Trí Tuệ Nhân Tạo, hành vi của nó có thể là không thể giải thích hoàn toàn. Các thuật toán học máy đằng sau nhiều thành tựu Trí Tuệ Nhân Tạo gần đây không thể được lập trình hoặc đảo ngược theo cách giống như phần mềm thông thường. Chuyên gia gọi những hệ thống này là hộp đen, vì ngay cả những người tạo ra chúng cũng không thể giải thích hoàn toàn cách chúng hoạt động. Một ngày nào đó, bạn có thể phải đưa ra quyết định y tế quan trọng dựa trên lời khuyên từ một bác sĩ, lời khuyên đó lại dựa trên lời khuyên từ một hệ thống Trí Tuệ Nhân Tạo được xây dựng trên các phương pháp và nguồn lực mà không có con người hoặc cơ quan quy định nào có thể kiểm tra được. Trí tuệ nhân tạo là trí tuệ ngoại lai, nhìn nhận và xử lý thế giới theo cách cơ bản khác biệt so với cách chúng ta làm.

Đánh giá sai lầm hệ thống Trí Tuệ Nhân Tạo có thể dẫn đến việc đánh giá sai lầm về con người. Madeleine Clare Elish, một nhà nhân loại học tại Viện Nghiên cứu Data & Society, đã nghiên cứu về các tai nạn liên quan đến tự động hóa và cho biết trách nhiệm đạo đức về sự cố hệ thống thường dồn vào người không tạo ra chúng. Sau khi một chiếc ô tô tự lái của Uber tại Arizona gây ra tai nạn làm chết một người đi bộ vào năm 2018, cảnh sát đã tập trung sự chú ý của công chúng vào tài xế an toàn, người dường như đã bị xao lạc trong video từ chiếc ô tô. Các nhà điều tra liên bang sau đó phát hiện ra rằng Uber đã vô hiệu hóa hệ thống phanh khẩn cấp của ô tô và lập trình các thuật toán của nó để tìm kiếm người đi bộ chỉ ở các vạch dành cho người đi bộ. Uber đã nâng cao tính năng an toàn và không thể kiểm tra ở Arizona nữa, nhưng đã được miễn trách nhiệm hình sự; tài xế an toàn có thể đối mặt với cáo buộc trong tương lai.
Mọi người có thể thấy rằng họ càng khó nhận biết rõ chức năng và nhược điểm của các hệ thống Trí Tuệ Nhân Tạo phức tạp hơn, liên tục thích ứng với môi trường và kinh nghiệm của chúng. “Điều gì có nghĩa là hiểu được chức năng của một hệ thống nếu nó động và học và chúng ta không thể dựa vào kiến thức trước đó của chúng ta?” Elish đặt câu hỏi. Khi chúng ta tương tác với nhiều hệ thống Trí Tuệ Nhân Tạo hơn, có lẽ khả năng học tập đáng kinh ngạc của chúng ta sẽ giúp chúng ta phát triển một lý thuyết về trí óc máy móc, để cảm nhận động cơ và hành vi của chúng. Hoặc có thể giải pháp nằm trong các máy móc, không phải chúng ta. Các kỹ sư của các hệ thống Trí Tuệ Nhân Tạo trong tương lai có thể cần dành nhiều thời gian kiểm thử xem chúng hoạt động tốt như thế nào khi tương tác với con người cũng như việc tăng cường chỉ số IQ điện tử của chúng.
Bài viết này xuất hiện trong số tháng 6. Đăng ký ngay.
Hãy cho chúng tôi biết bạn nghĩ gì về bài viết này. Gửi thư tới biên tập viên tại [email protected].
Chuyên mục Đặc biệt: Tương lai của Máy Tính Tư Duy
- Liệu Não Bộ Có Phải Là Một Mô Hình Hữu Ích Cho Trí Tuệ Nhân Tạo?
- Tại Sao Trí Tuệ Nhân Tạo Không Cứu Chúng Ta Khỏi Covid-19?
- Liệu Robot Sát Thủ Dựa Trên Trí Tuệ Nhân Tạo Có Thể Tránh Không Khỏi?
- Nó Gọi Là Trí Tuệ Nhân Tạo—Nhưng Trí Tuệ Là Gì?
