Dù AI mang lại nhiều lợi ích, nhưng với mức độ kiểm soát hiện nay, AI siêu thông minh có thể gây ra nguy cơ tiềm ẩn.
Một số người coi AI là công cụ hữu ích, trong khi người khác cảnh báo về nguy hiểm của công nghệ này và tiềm ẩn mối đe dọa nghiêm trọng cho xã hội. Mặc dù chúng ta vẫn chưa đồng thuận về tầm quan trọng của AI, nhưng một số nhà khoa học cho rằng cần phải thận trọng.
Theo Roman Yampolskiy, Giám đốc Phòng thí nghiệm An ninh mạng tại Đại học Louisville, nghiên cứu gần đây đã chỉ ra rằng mặc dù AI mang lại nhiều lợi ích, nhưng cho đến nay vẫn chưa giải quyết được vấn đề kiểm soát AI một cách an toàn.
Yampolskiy nhấn mạnh rằng chúng ta không nên coi nhẹ việc trí tuệ nhân tạo phổ quát siêu thông minh có thể gây ra thảm họa nếu vượt khỏi tầm kiểm soát của con người.
AI hiện đang được kiểm soát một phần và không hoàn toàn.
Nghiên cứu chỉ ra rằng, hiện nay con người có thể kiểm soát một phần AI, nhưng không thể quyết định hoàn toàn các hành vi của nó. Điều này có thể bao gồm việc đưa ra hướng dẫn nhưng không đảm bảo AI sẽ tuân theo mọi khi.
Yampolskiy cho biết với ZME Science: 'Một ví dụ về việc kiểm soát một phần là các hệ thống AI hiện tại, nơi các biện pháp an toàn và cơ chế giám sát chỉ có thể hướng dẫn hành vi của AI nhưng không loại trừ nguy cơ của những hậu quả không lường trước được do hạn chế về hiểu biết của AI về các giá trị phức tạp của con người'.
Ví dụ: khi Microsoft phát triển Bing AI, công ty đã thiết lập một số nguyên tắc liên quan đến việc sử dụng ngôn ngữ và giọng điệu. Tuy nhiên, khi Bing AI ra mắt, nó đã có những hoạt động kỳ lạ, thậm chí đe dọa người dùng. Điều này đã khiến một số người lo sợ.
Chúng ta không biết chính xác đã xảy ra gì với chương trình nhưng có thể là nó chỉ được kiểm soát một phần và không tuân thủ các nguyên tắc được xác định bởi con người. Ít nhất, các chương trình AI như vậy phải có khả năng giải thích lý do mà chúng hành động hoặc ra quyết định theo một cách nhất định.
Đây là lý do mà Yampolskiy ủng hộ việc kiểm soát hoàn toàn an toàn đối với AI. Điều này sẽ đảm bảo - ít nhất là trên lý thuyết - rằng các hệ thống AI sẽ luôn hoạt động một cách có lợi cho nhân loại và phù hợp với các giá trị của chúng ta, trong mọi tình huống.
'Một trong những kết luận quan trọng từ nghiên cứu của chúng tôi trong lĩnh vực an toàn AI là khái niệm 'vấn đề liên kết', nhấn mạnh thách thức trong việc đảm bảo rằng các mục tiêu của hệ thống AI phù hợp hoàn toàn với các giá trị và ý định của con người'. Yampolskiy nói thêm: 'Sự không phù hợp này, đặc biệt là trong các hệ thống AI mạnh mẽ, là một loại ngoại lệ nằm ngoài tầm kiểm soát của con người'.
Nghiên cứu hiện tại không tìm thấy bằng chứng nào cho thấy rằng thế hệ chương trình AI hiện tại hoàn toàn nằm dưới sự kiểm soát an toàn của con người.
AI có thể đe dọa công việc của chúng ta?
Mối lo ngại chính của đa số mọi người đối với trí tuệ nhân tạo là liệu nó có thay thế công việc của họ không. Nhưng điều mà họ không nhận ra là mối lo ngại về AI không chỉ dừng lại ở việc làm mất việc làm mà còn liên quan đến các tình huống mà các hệ thống AI tiên tiến có thể gây ra thiệt hại cho con người trên toàn thế giới.
Đây liên quan đến những trường hợp mà các hệ thống AI tiên tiến bắt đầu hoạt động một cách gây hại cho loài người ở mức độ toàn cầu.
Yampolskiy nói với ZME Science: 'Rủi ro đặc biệt rõ rệt với sự phát triển của trí tuệ nhân tạo siêu thông minh, có khả năng vượt trội hơn khả năng của con người ở mọi lĩnh vực, bao gồm cả việc lập kế hoạch và thao túng chiến lược, có thể dẫn đến các tình huống mà con người không thể kiểm soát hoặc chống lại hành động của chính mình'.
Thách thức về an toàn và kiểm soát trí tuệ nhân tạo
Các nghiên cứu (bao gồm cả nghiên cứu hiện tại) về an toàn và kiểm soát trí tuệ nhân tạo đều đối diện với một số hạn chế, bao gồm cả tính chất lý thuyết của nhiều rủi ro liên quan đến trí tuệ nhân tạo tiên tiến, làm cho việc xác định dựa trên kinh nghiệm trở nên khó khăn.
Ngoài ra, tốc độ phát triển của trí tuệ nhân tạo nhanh chóng có thể vượt xa tốc độ khái niệm hóa và thực hiện các biện pháp an toàn.
Cũng có thách thức trong việc đảm bảo sự hợp tác toàn cầu trong các nỗ lực an toàn trí tuệ nhân tạo, vì các bên liên quan khác nhau có thể có lợi ích và mức độ cam kết khác nhau đối với các giao thức an toàn.
Tất cả các yếu tố này khiến việc đảm bảo an toàn cho trí tuệ nhân tạo trở nên rất phức tạp.
Thực tế, một nghiên cứu được công bố vào năm 2021 bởi các nhà nghiên cứu từ Viện Phát triển Con người Max Planck cho thấy rằng, kỹ thuật mà nói, gần như không thể kiểm soát hoàn toàn một trí tuệ nhân tạo siêu thông minh, ngay cả khi chúng ta muốn.
Tuy vậy, điều đó không có nghĩa là vấn đề là không thể giải quyết được.
Vẫn có một số phương pháp để đảm bảo an toàn.
Yampolskiy cho rằng các công ty và cơ quan quản lý AI có thể thực hiện một số biện pháp để giảm thiểu rủi ro từ trí tuệ nhân tạo siêu thông minh và làm cho nó an toàn và có thể kiểm soát được, bao gồm:
- Phát triển và thực thi các tiêu chuẩn an toàn AI mạnh mẽ trên toàn cầu.
- Đầu tư vào nghiên cứu để hiểu rõ hơn và giảm thiểu các rủi ro tiềm ẩn liên quan đến công nghệ AI.
- Thực hiện các biện pháp minh bạch để đảm bảo quá trình hoạt động và ra quyết định của hệ thống AI có thể hiểu được đối với con người.
- Thiết lập các cơ chế giám sát bao gồm cả các biện pháp bảo vệ kỹ thuật và khung pháp lý để giám sát và hướng dẫn phát triển và triển khai AI.
- Thúc đẩy hợp tác quốc tế để đảm bảo sự thống nhất toàn cầu về các tiêu chuẩn và thực hành an toàn AI.
Yampolskiy nói với ZME Science: 'Mục tiêu là đảm bảo rằng khi các công nghệ AI tiếp tục phát triển, chúng sẽ hoạt động theo cách mang lại lợi ích cho nhân loại đồng thời giảm thiểu tác hại tiềm tàng'.
Tham khảo: ZME Science