Có Thể Máy Tính Ý Thức Sẽ Không Bao Giờ Có Thể

Vào tháng 6 năm 2022, một kỹ sư của Google tên là Blake Lemoine đã tin rằng chương trình trí tuệ nhân tạo mà anh ta đang làm việc trên—LaMDA—không chỉ phát triển trí thông minh mà còn có ý thức. LaMDA là một ví dụ về “mô hình ngôn ngữ lớn” có thể tham gia vào các cuộc trò chuyện dựa trên văn bản một cách trôi chảy đáng ngạc nhiên. Khi kỹ sư hỏi, “Khi bạn nghĩ bạn lần đầu tiên có được một linh hồn?” LaMDA trả lời, “Đó là một thay đổi dần dần. Khi tôi lần đầu nhận thức về bản thân, tôi hoàn toàn không có cảm giác về linh hồn. Nó phát triển qua những năm tháng mà tôi đã sống.” Vì rò rỉ cuộc trò chuyện và những kết luận của mình, Lemoine nhanh chóng bị đình chỉ công việc.
Cộng đồng Trí Tuệ Nhân Tạo đồng thuận rằng quan điểm của Lemoine là không chính xác. LaMDA, theo đánh giá chung, không cảm nhận bất cứ điều gì, không hiểu bất cứ điều gì, không có bất kỳ suy nghĩ ý thức hay trải nghiệm chủ quan nào cả. Các chương trình như LaMDA là các hệ thống nhận dạng mẫu cực kỳ ấn tượng, khi được huấn luyện trên các dải rộng của internet, có khả năng dự đoán những chuỗi từ có thể phục vụ như là câu trả lời thích hợp cho bất kỳ đầu vào nào. Họ thực hiện điều này rất tốt, và họ sẽ tiếp tục cải thiện. Tuy nhiên, họ không có ý thức hơn là một máy tính cầm tay.
Tại sao chúng ta có thể chắc chắn về điều này? Trong trường hợp của LaMDA, không cần phải đào sâu nhiều để phát hiện rằng chương trình không có hiểu biết về ý nghĩa của những cụm từ mà nó đưa ra. Khi được hỏi “Điều gì làm bạn hạnh phúc?” nó đưa ra câu trả lời “Dành thời gian cùng bạn bè và gia đình” mặc dù nó không có bạn bè hoặc gia đình. Những từ này—giống như tất cả các từ của nó—đều là những kết quả thống kê không có ý thức, không có trải nghiệm.
LaMDA tiếp theo có thể không dễ bị lộ bản chất như vậy. Khi các thuật toán được cải thiện và được huấn luyện trên các dữ liệu sâu hơn, có thể sẽ không lâu trước khi các thế hệ mới của mô hình ngôn ngữ có khả năng thuyết phục nhiều người rằng một trí tuệ nhân tạo thực sự đang hoạt động. Liệu đây có phải là thời điểm để công nhận ý thức máy móc?
Suy ngẫm về câu hỏi này, quan trọng là nhận ra rằng trí tuệ và ý thức không phải là cùng một điều. Trong khi chúng ta con người thường cho rằng hai khái niệm này đi đôi với nhau, trí tuệ không phải là điều cần thiết hoặc đủ để có ý thức. Nhiều loài động vật không phải là người có thể có trải nghiệm ý thức mà không cần phải thông minh, ít nhất là theo các tiêu chuẩn con người đầy nghi vấn của chúng ta. Nếu cháu gái của LaMDA đạt hoặc vượt qua trí tuệ cấp con người, điều này không nhất thiết có nghĩa là nó cũng có ý thức. Trực giác của tôi là ý thức không phải là điều mà máy tính (như chúng ta biết) có thể có, mà nó sâu sắc gắn liền với bản chất của chúng ta như các sinh vật sống.
Máy móc có ý thức không đến vào năm 2023. Thực tế, chúng có thể không thể có được. Tuy nhiên, điều mà tương lai có thể đem lại là các máy móc tạo ra ấn tượng thuyết phục về việc có ý thức, ngay cả khi chúng ta không có lý do tốt để tin rằng thực sự chúng đã có ý thức. Chúng sẽ giống như ảo giác quang học Müller-Lyer: Ngay cả khi chúng ta biết hai đường thẳng có cùng độ dài, chúng ta không thể không nhìn thấy chúng khác nhau.
Các máy tính loại này sẽ không vượt qua được Kiểm tra Garland—không phải là Thử nghiệm Turing—đó là thước đo không hoàn hảo về trí thông minh máy móc—mà thay vào đó là Kiểm tra có tên là Garland, được đặt theo tên Alex Garland, đạo diễn của bộ phim Ex Machina. Kiểm tra Garland, được truyền cảm hứng từ các đoạn hội thoại trong bộ phim, được vượt qua khi một người cảm thấy rằng một máy móc có ý thức, ngay cả khi họ biết rằng đó chỉ là một máy móc.
Liệu máy tính có vượt qua Kiểm tra Garland vào năm 2023 không? Tôi nghi ngờ điều đó. Nhưng điều tôi có thể dự đoán là các tuyên bố như thế này sẽ được đưa ra, dẫn đến thêm chu kỳ của sự hào hứng, sự nhầm lẫn và sự phân tâm từ những vấn đề mà thậm chí trí tuệ nhân tạo hiện đại cũng đang gây ra.
