Gần đây, trí tuệ nhân tạo (AI) đã trở thành một chủ đề hot, thu hút sự chú ý từ cả giới nghiên cứu lẫn công chúng. Các câu chuyện về AI có khả năng vượt qua giới hạn và trở thành mối nguy hại đối với nhân loại ngày càng xuất hiện nhiều trên các phương tiện truyền thông. Tuy nhiên, liệu những lo ngại này có thực sự phản ánh đúng bản chất của trí tuệ nhân tạo?
Nỗi ám ảnh của nhân loại đối với trí tuệ nhân tạo
Kể từ những năm 1940, khi những chiếc máy tính đầu tiên xuất hiện, con người đã bắt đầu lo lắng về khả năng của các cỗ máy này. Ví dụ điển hình là bộ phim khoa học viễn tưởng 'Colossus: The Forbin Project' năm 1970, nói về một siêu máy tính kiểm soát toàn bộ vũ khí hạt nhân của Mỹ và dần chiếm ưu thế toàn cầu. Ý tưởng về một AI mạnh mẽ và không thể kiểm soát đã trở thành nguồn cảm hứng cho nhiều tác phẩm nghệ thuật và cũng là nỗi lo lắng của nhiều nhà khoa học.
Trong hơn sáu thập kỷ qua, đã có nhiều dự đoán rằng máy tính sẽ đạt trí thông minh ngang bằng con người trong vài năm tới và nhanh chóng vượt qua chúng ta. Mặc dù đã có những tiến bộ đáng kể, trí tuệ nhân tạo vẫn chưa đạt đến mức đó. Dù đã xuất hiện từ những năm 1960, AI chỉ mới trở nên phổ biến gần đây nhờ vào các hệ thống xử lý ngôn ngữ và hình ảnh. Nhưng liệu những hệ thống này có thực sự đáng sợ như chúng ta nghĩ?
Nghiên cứu mới: Trí tuệ nhân tạo không phải là mối đe dọa hiện tại
Nghiên cứu mới từ Đại học Bath và TU Darmstadt, được trình bày tại Hội nghị Ngôn ngữ học Tính toán lần thứ 62 (ACL 2024), đã đưa ra những phát hiện quan trọng về các mô hình ngôn ngữ lớn (LLM). Nghiên cứu này cho thấy LLM, một loại trí tuệ nhân tạo phổ biến, thực tế có thể kiểm soát và dự đoán tốt hơn nhiều so với những lo ngại hiện tại.
Tiến sĩ Harish Tayyar Madabushi từ Đại học Bath cho rằng những câu chuyện về AI gây ra mối nguy hiểm cho nhân loại đã cản trở sự phát triển và ứng dụng của công nghệ này. Ông nhấn mạnh rằng lo ngại về việc LLM có thể tự phát triển khả năng mới mà không cần can thiệp của con người là không có cơ sở. Theo nghiên cứu, LLM chủ yếu thực hiện tốt các nhiệm vụ theo hướng dẫn lập trình, không có khả năng tự học hay phát triển kỹ năng mới một cách độc lập.
Nghiên cứu cũng chỉ ra rằng, mặc dù LLM có thể thể hiện một số hành vi đáng ngạc nhiên, tất cả đều có thể được giải thích từ lập trình của chúng. Do đó, ý tưởng về một AI tự phát triển thành một mối nguy hiểm là không có căn cứ.
Mối nguy hiểm thực sự nằm ở con người, không phải AI
Dù vậy, điều này không có nghĩa là trí tuệ nhân tạo hoàn toàn vô hại. Nhóm nghiên cứu từ Đại học Bath và TU Darmstadt cảnh báo rằng AI vẫn có thể gây ra các vấn đề nghiêm trọng như thao túng thông tin, tạo tin giả và bị lạm dụng cho các mục đích xấu. Nguy cơ này không phải từ bản thân AI, mà từ những người lập trình và điều khiển nó.
Chúng ta cần có cách tiếp cận thận trọng và trách nhiệm trong việc phát triển và ứng dụng AI. Thay vì lo sợ rằng máy móc sẽ trở thành kẻ thù của loài người, chúng ta nên chú trọng vào những người đứng sau các hệ thống này. Chính con người mới là yếu tố quyết định liệu AI sẽ là công cụ hữu ích hay mối đe dọa tiềm tàng cho xã hội.
AI không phải là một thực thể có ý thức tự độc lập; nó chỉ là một công cụ do con người thiết kế. Mối nguy thực sự đến từ cách chúng ta sử dụng và quản lý công cụ này.
Trí tuệ nhân tạo, đặc biệt là các mô hình ngôn ngữ lớn, không phải là mối đe dọa hiện tại như nhiều người lo lắng. Chúng có khả năng kiểm soát và dự đoán, nhưng không thể tự phát triển kỹ năng mới hay vượt khỏi tầm kiểm soát. Tuy nhiên, điều này không có nghĩa là chúng ta nên chủ quan. Nguy cơ thực sự nằm ở con người, những người lập trình và điều khiển hệ thống AI. Vì vậy, việc nghiên cứu, giám sát và ứng dụng AI một cách có trách nhiệm là rất quan trọng để đảm bảo công nghệ này phục vụ lợi ích nhân loại.
Nguồn: Sohu; Newatlas