3 mối lo mà nhà vật lý nổi tiếng Stephen Hawking cảnh báo cuối cùng là gì?
Stephen Hawking là một nhà vật lý lý thuyết nổi tiếng và đã có nhiều đóng góp quan trọng cho khoa học thế giới.

Trước khi qua đời vào tháng 3/2018, Giáo sư Stephen Hawking đã đưa ra nhiều dự đoán về tương lai của Trái Đất và con người. Trong số đó, có 3 dự đoán đặc biệt được chú ý nhất.
1. Trí tuệ nhân tạo (AI) sẽ đe dọa tồn tại của loài người.
Trước sự phát triển nhanh chóng của trí tuệ nhân tạo, Giáo sư Stephen Hawking đã cảnh báo tại một hội nghị ở London vào tháng 11/2017: 'Máy tính với trí tuệ nhân tạo sẽ vượt qua con người trong vòng 100 năm tới. Khi điều đó xảy ra, chúng ta có thể đối mặt với những thách thức mới'.

Giáo sư Stephen Hawking đã cảnh báo rằng trí tuệ nhân tạo có thể thay thế loài người trong tương lai.
Trước đó, nhà vật lý Stephen Hawking cũng đã đưa ra cảnh báo về mối lo ngại trước sự tiến triển nhanh chóng của trí tuệ nhân tạo. Ông nói: 'Nếu trí tuệ nhân tạo phát triển đầy đủ cảm xúc, có thể đặt dấu chấm hết cho loài người'.
Giáo sư nổi tiếng cho rằng, nếu con người tiếp tục trao quyền lực cho trí tuệ nhân tạo, thì AI sẽ trở nên mạnh mẽ và thông minh hơn sức mạnh tính toán của con người. Đặc biệt, khi chúng có cảm xúc như con người, cuộc chiến với AI sẽ trở nên khốc liệt. Vì con người bị hạn chế bởi quá trình tiến hóa sinh học chậm chạp, nên không thể cạnh tranh và bị thay thế.
Thực tế cho thấy, lời cảnh báo của Stephen Hawking không thiếu cơ sở. Hiện nay, trí tuệ nhân tạo đang phát triển mạnh mẽ. Ví dụ, vấn đề của trí tuệ nhân tạo có khả năng nhận thức đang trở thành một chủ đề nóng tại Google.
Vào tháng 6/2022, Blake Lemoine, một chuyên gia về khoa học máy tính, đã bị Google sa thải sau khi công bố cuộc trò chuyện giữa ông và trí tuệ nhân tạo mang tên LaMDA, và đánh giá rằng AI này có tư duy như trẻ em.
Mặc dù không đồng ý với Blake Lemoine, nhưng Blaise Aguera y Arcas, lãnh đạo nhóm Thị giác máy tại Google, nhận thấy về LaMDA, rằng ông ngày càng cảm thấy như đang nói chuyện với một thứ gì đó thông minh.
Đây chỉ là một ví dụ về sự phát triển nhanh chóng của AI. Ngoài ra, AI cũng đang dần thâm nhập vào các ngành công nghiệp sử dụng lao động nhiều. Trong tương lai, những gì thấy trong các nhà máy có thể không còn là nhân viên trên dây chuyền lắp ráp, mà là AI.
2. Nhân loại sẽ đối mặt với một cuộc khủng hoảng nghiêm trọng
Với sự gia tăng không ngừng của dân số trên hành tinh, các nguồn tài nguyên trên trái đất đang bị tiêu thụ với tốc độ đáng kể. Điều này đang tạo ra những thách thức lớn về nguồn nước, lương thực và các nhu cầu cơ bản khác của con người. Cuối cùng, sức chịu đựng của trái đất cũng sẽ đạt đến giới hạn.

Giáo sư Stephen Hawking đã cảnh báo rằng con người đang tiêu thụ tài nguyên của trái đất nhanh hơn so với khả năng tái tạo của nó. Kết quả là sự ấm lên toàn cầu và biến đổi khí hậu đang đe dọa sự ổn định và sự tồn tại của hành tinh.
Biến đổi khí hậu đe dọa sự tồn tại của rừng nhiệt đới Amazon, làm hủy hoại các vùng cực và khiến bầu khí quyển trở nên giàu CO2.
Trong một bộ phim tài liệu của BBC, Giáo sư Stephen Hawking dự đoán rằng con người sẽ phải rời bỏ trái đất và định cư trên các hành tinh khác trong tương lai. Ông tin rằng, trong vòng 1.000 năm tới, con người sẽ phải di cư đến các hành tinh khác, nếu không trái đất sẽ đối diện với nguy cơ tiêu diệt.
3. Nguy cơ mà con người phải đối mặt khi tiếp xúc với người ngoài hành tinh
Nhà vật lý Stephen Hawking đã cảnh báo rằng nếu con người tìm thấy người ngoài hành tinh, họ có thể gây nguy hiểm cho chính mình.
Theo một nghiên cứu được xuất bản trong tạp chí Nature vào ngày 8/6/2022, các nhà thiên văn học đã phát hiện một loạt chớp sóng vô tuyến (FRB) lặp lại, đầy bí ẩn. Chúng được phát từ một thiên hà nhỏ cách Trái Đất khoảng 3 tỷ năm ánh sáng.
Loạt chớp sóng vô tuyến này được gọi là FRB 190520B. Hiện tượng kỳ lạ này được phát hiện thông qua kính vô tuyến FAST của Trung Quốc vào năm 2019.
Theo các nhà nghiên cứu, FRB 190520B là một trong ba nguồn phát tín hiệu vô tuyến đang được theo dõi đặc biệt vì chúng lặp lại liên tục một cách khó hiểu.
Trước tín hiệu lặp lại này, có người cho rằng đó có thể là tín hiệu mà người ngoài hành tinh sử dụng để phát hiện các nền văn minh giữa các hành tinh. Liệu có thực sự tồn tại một nền văn minh ngoài hành tinh hay không?

Theo Giáo sư Stephen Hawking, cuộc gặp gỡ giữa con người và người ngoài hành tinh có thể mang lại hậu quả nghiêm trọng. Ảnh: Geeksultd
Trong loạt phim tài liệu 'Stephen Hawking’s Favourite Places' năm 2016, Giáo sư Stephen Hawking đã chia sẻ về Gliese, một hành tinh được cho là có thể sinh sống.
Theo Giáo sư Stephen Hawking: 'Nếu có dạng sống ngoài hành tinh trên Gliese 832c, chúng ta có thể nhận được tín hiệu từ một hành tinh như vậy một ngày nào đó. Tuy nhiên, chúng ta cần cẩn trọng khi phản hồi, bởi cuộc gặp gỡ với một nền văn minh tiên tiến có thể tương tự như việc người Mỹ bản địa gặp Columbus. Một cuộc gặp gỡ như vậy có thể không mang lại kết quả tốt đẹp'.
Nhà vật lý nổi tiếng đã cảnh báo rằng con người không nên cố gắng tìm kiếm hoặc liên lạc với các nền văn minh ngoài hành tinh, vì điều này có thể gây ra hậu quả nghiêm trọng cho dân số trên Trái Đất.
Giáo sư Stephen Hawking cho rằng việc gửi thông điệp ra không gian nhằm liên lạc với trí thông minh bên ngoài Trái Đất là một ý tưởng tồi tệ. Bởi mọi sinh vật đủ phát triển để nhận thông điệp và đến Trái Đất có thể tấn công con người.
Một khi Trái Đất được các nền văn minh ngoài hành tinh phát hiện, họ có thể xâm chiếm hành tinh này trực tiếp. Theo nhà vật lý Stephen Hawking, những nền văn minh ngoài hành tinh có thể đến từ những thiên hà xa xôi và mạnh mẽ hơn chúng ta nhiều.
Hiện tại, mặc dù con người chưa tìm thấy bằng chứng về sự tồn tại của nền văn minh ngoài hành tinh, nhưng các nhà khoa học tin rằng chúng tồn tại. Vũ trụ rộng lớn và có thể chứa đựng nhiều nền văn minh khác nhau.
Bài viết tham khảo từ: Sciencealert, Dailymail, Express.co.uk
https://soha.vn/stephen-hawking-tung-canh-bao-3-moi-lo-cua-nhan-loai-cai-cuoi-cung-khong-the-kiem-soat-20220719172235754.htmhttps://soha.vn/stephen-hawking-tung-canh-bao-3-moi-lo-cua-nhan-loai-cai-cuoi-cung-khong-the-kiem-soat-20220719172235754.htm