Trí tuệ nhân tạo có thể là nguyên nhân vì sao chúng ta vẫn chưa thiết lập liên lạc với các nền văn minh ngoài hành tinh.
Lược dịch từ bài viết của giáo sư Michael Garrett, giữ vị trí quan trọng trong ban Vật lý thiên văn của Đại học Manchester, và giám đốc Trung tâm Vật lý thiên văn Jodrell Bank.
Trong những năm gần đây, trí tuệ nhân tạo đã phát triển với tốc độ đáng kinh ngạc. Một số nhà khoa học đang nghiên cứu về siêu trí tuệ nhân tạo (artificial superintelligence - ASI), một dạng AI vượt trội hơn cả trí tuệ con người và có khả năng học tập không bị giới hạn như con người.
Tuy nhiên, liệu rằng AI có thể đại diện cho một rào cản quan trọng trong quá trình phát triển của mọi nền văn minh, có thể ngăn chặn sự tồn tại của loài người?
Đây là một khái niệm được đặc biệt chú ý trong bài báo mới được xuất bản trên Acta Astronautica. AI có thể là 'bộ lọc vĩ đại', một ngưỡng mà hầu hết các dạng sống không thể vượt qua để trở thành một nền văn minh có khả năng khám phá vũ trụ?
Đây cũng là lý do tại sao những nỗ lực tìm kiếm thông minh ngoài hành tinh vẫn thất bại, và cho đến nay chúng ta vẫn chưa tìm thấy bất kỳ dấu vết của một nền văn minh sở hữu công nghệ tiên tiến.

Các trạm thiên văn vô tuyến đang nỗ lực không ngừng để tìm kiếm dấu vết của sự sống ngoài Trái Đất - Hình minh họa.
Giả thuyết về 'bộ lọc vĩ đại' là một trong những lời giải đáp cho Nghịch lý Fermi, đặt ra câu hỏi tại sao trong vũ trụ rộng lớn và cổ xưa như vậy, có thể chứa hàng tỷ hành tinh có thể ủng hộ sự sống mà chúng ta vẫn chưa phát hiện dấu hiệu của nền văn minh khác.
Giả thuyết này cho rằng trong quá trình tiến hóa của con người hay của bất kỳ giống loài thông minh nào, đều tồn tại một rào cản ngăn nền văn minh tiếp tục phát triển. Đó có thể là một thảm họa tự nhiên hủy hoại sự sống trên quy mô lớn, hoặc bản chất của dạng sống thông minh là tự phá huỷ.
Giáo sư Garrett tin rằng siêu trí tuệ nhân tạo có tiềm năng trở thành rào cản này. Với tốc độ phát triển nhanh chóng, AI có thể nhanh chóng trở thành ASI, và có thể ngăn chặn quá trình phát triển của một nền văn minh. Cụ thể, nó có thể ngăn ngừa con người trở thành một giống loài liên hành tinh.
Tốc độ phát triển của AI có thể quá nhanh, vượt quá khả năng kiểm soát của con người và nhanh hơn cả tốc độ khai thác Mặt Trời của chúng ta. Thử thách mà một hệ thống siêu trí tuệ đặt ra cho con người nằm ở khả năng tự hành, tự tối ưu hóa và tự cải thiện của nó. AI có tiềm năng tự hoàn thiện với tốc độ nhanh hơn so với con người phát triển sau cách mạng công nghiệp.

Trong phiên bản hoàn thiện của mình, AI sẽ có khả năng tự sửa lỗi - Hình minh họa.
Nguy cơ phát triển bất cân bằng ngày càng cao, tiềm ẩn rủi ro suy tàn của cả nền văn minh nhân loại trước khi chúng có cơ hội trở thành một giống loài liên hành tinh. Ví dụ, nếu các quốc gia dần dần phụ thuộc vào AI và giao quyền lực cho một hệ thống AI tự hành để đối phó với nhau, sức mạnh quân sự có thể được sử dụng vào mục đích tiêu diệt với một quy mô chưa từng có. Điều này có thể dẫn đến sự suy tàn của nền văn minh, cũng như sự suy tàn của AI.
Trong tương lai này, giáo sư Garrett ước tính rằng một nền văn minh tích hợp công nghệ có thể tồn tại không quá 100 năm. Số năm này tương đương với khoảng thời gian từ lúc chúng ta hạ cánh xuống Mặt Trăng lần đầu tiên (năm 1969) đến khi dự kiến ASI sẽ hình thành (năm 2040). So với tuổi đời của vũ trụ, con số này cũng không lớn lắm.
Khi tính con số này vào phương trình Drake, một biểu thức toán học dùng để ước đoán số lượng nền văn minh trong Dải Ngân Hà, kết quả cho thấy chỉ có vài nền văn minh tồn tại vào bất kỳ thời điểm nào, và họ cũng có công nghệ 'rối' giống như chúng ta, làm cho việc phát hiện lẫn nhau trở nên khó khăn.
Đánh thức nhận thức
Nghiên cứu này không chỉ là cảnh báo mà còn là một lời kêu gọi để con người hoàn thiện các luật lệ quản lý AI, bao gồm cả việc điều tiết các hệ thống quân sự tự động.
Điều này không chỉ ngăn AI làm những việc xấu trên Trái Đất mà còn đảm bảo rằng sự phát triển của AI phù hợp với mục đích tồn tại của loài người. Nghiên cứu cho thấy chúng ta nên tập trung thêm nỗ lực để trở thành một xã hội liên hành tinh, càng sớm càng tốt - đây là mục đích mà sứ mệnh Apollo từng tôn vinh, và hiện lại được nhắc lại bởi các doanh nghiệp tư nhân.

Ước mơ trở thành giống loài liên hành tinh có động lực mới: nỗi sợ bị AI hủy diệt - Hình minh họa.
Như sử gia Yuval Noah Harari đã chỉ ra, lịch sử không thể chuẩn bị chúng ta cho ngày thiên thạch của thực thể siêu thông minh, có ý thức. Một lúc trước, nguy cơ tiềm tàng của những quyết định do AI tự động đưa ra đã khiến các chuyên gia đầu ngành phải suy nghĩ lại, suy xét việc hoãn phát triển AI cho đến khi nghiên cứu và soạn thảo xong các luật lệ xoay quanh trí tuệ nhân tạo.
Tuy nhiên, dù các quốc gia đồng ý với hướng đi phát triển của trí tuệ nhân tạo, các cơ quan pháp lý vẫn gặp khó khăn trong việc quản lý những tổ chức nằm ngoài phạm vi luật pháp.
Việc tích hợp trí tuệ nhân tạo vào các hệ thống quân sự cũng đang gây ra nhiều lo ngại. Hành động này đưa chúng ta ngày càng gần với tương lai u ám, khi các vũ khí tự động vượt ra ngoài ranh giới đạo đức và bất chấp pháp luật quốc tế. Trong kịch bản này, việc nhường quyền kiểm soát cho hệ thống AI có thể dẫn đến những hậu quả tai hại. Một cái bấm nút, nền văn minh trên hành tinh có thể bị tiêu diệt chỉ trong chớp mắt.
Con người đang đứng trước thời điểm quan trọng trong quá trình phát triển công nghệ. Những quyết định hôm nay có thể quyết định liệu ngày mai, chúng ta sẽ thành một nền văn minh liên hành tinh hay sụp đổ dưới áp lực từ chính tạo tác của chúng ta.
Dự án tìm kiếm trí thông minh ngoài hành tinh có thể coi như một cách để chúng ta nhìn lại tương lai của mình, mở ra những góc nhìn mới về vai trò của trí tuệ nhân tạo. Chúng ta phải dựa vào bản thân để đảm bảo rằng, khi chúng ta mở rộng vòng tay tới những ngôi sao, chúng ta không chỉ là lời cảnh tỉnh cho các nền văn minh khác mà còn là nguồn cảm hứng về hy vọng sống sót - với danh xưng là một giống loài đã học cách chia sẻ cuộc sống hòa bình cùng trí tuệ nhân tạo.
