Ý kiến của bạn là gì? Trí tuệ nhân tạo: Thiện hay ác?
Trong cuộc tranh luận về nguy cơ của trí tuệ nhân tạo, hai quan điểm rõ ràng: một tin rằng AI có thể dẫn dắt loài người vào một tương lai mới mẻ, trong khi khác biệt khẳng định AI sẽ vượt qua con người và trở thành mối đe dọa cho sự sống.
Bạn thắc mắc tại sao AI thường bày tỏ sự căm ghét đối với con người? Chúng không có cảm xúc và không thể yêu ghét, việc loại trừ con người chỉ là một quyết định logic: con người là kẻ thù duy nhất của một hệ thống nhận thức, bởi chỉ có con người mới có khả năng tắt máy, ngoài ra con người là một dấu hiệu khác biệt trong quá trình tiến hóa, gây ra sự hủy hoại cho hệ sinh thái tự nhiên đã tồn tại hàng tỷ năm.
Nhưng sẽ ra sao nếu cả hai phía của cuộc tranh luận đều ... đến từ robot? Để biến điều này thành hiện thực, IBM đã phát triển Project Debater - một con robot có hai quan điểm trái ngược về sự phát triển của trí tuệ nhân tạo; hai nhóm tranh luận, mỗi nhóm đại diện cho một quan điểm, được hỗ trợ bởi trí tuệ nhân tạo, và mỗi nhóm có hai thành viên người giúp đỡ.
Với một giọng nói Mỹ, Project Debater đã tham gia trước đám đông tại Đại học Cambridge Union, đại diện quốc tế của Đại học Cambridge, để đưa ra những luận điểm của mình cho cả hai phía của cuộc tranh luận.
Các từ ngữ mà con robot này nói ra đã được lựa chọn từ 1.100 bài luận đã được con người đưa vào hệ thống trước đó. AI sử dụng một ứng dụng có tên là 'speech by crowd' để tự đề xuất luận điểm của mình, dựa trên dữ liệu đã có sẵn. Sau đó, nó sẽ phân loại các ý chính và loại bỏ các ý lặp lại để chỉnh sửa bài phát biểu của mình sao cho thuyết phục nhất.
Với lập luận “robot sẽ gây hại nhiều hơn lợi”:
“Trí tuệ nhân tạo có thể mang lại nhiều hậu quả tiêu cực. AI không thể đưa ra quyết định có tính đạo đức, vì đạo đức là đặc tính chỉ có ở con người”, nó nói.
“Các công ty phát triển trí tuệ nhân tạo vẫn chưa có kinh nghiệm xử lý dữ liệu và loại bỏ thành kiến. AI sẽ tiếp tục nhận dạng các thành kiến có sẵn và duy trì xu hướng đó qua nhiều thế hệ”.
Ví dụ về những “thành kiến” mà một hệ thống trí tuệ nhân tạo có thể học từ cơ sở dữ liệu đầu vào: nếu một nhóm người thường xuyên vi phạm pháp luật, họ sẽ nhận được ít ưu đãi/châm chước hơn khi được một cỗ máy vô tri đánh giá trong lạnh lùng.
Khi tranh luận về 'hại nhiều hơn lợi', AI vẫn gặp một số vấn đề. Đôi khi nó lặp lại ý kiến, đôi khi không cung cấp bằng chứng cho các tuyên bố của mình.

Với lập luận “robot sẽ mang lại lợi ích nhiều hơn hại”:
Ngoài những lý do thông thường như khả năng tính toán siêu việt sẽ giải quyết được nhiều vấn đề của xã hội hiện đại, nó cũng cho rằng AI sẽ tạo ra nhiều công việc mới trong một số lĩnh vực cụ thể và “tăng hiệu suất làm việc trong lĩnh vực này”. Tuy nhiên, nó cũng đưa ra một lập luận phản đối: “Khả năng chăm sóc bệnh nhân, giáo dục trẻ em của robot sẽ làm giảm nhu cầu về nhân lực”.
Kết quả chung cuộc: đội 'lợi hơn hại' giành chiến thắng với tỷ lệ hầu như bằng nhau, khi có 51,22% số người bầu cho ý kiến 'lợi hơn hại' thuyết phục hơn.
Theo lời của kỹ sư Noam Slonim, mục tiêu của IBM khi phát triển hệ thống này là tạo ra một công cụ trí tuệ nhân tạo speech-by-crowd để thu thập ý kiến về một vấn đề cụ thể. Ví dụ, công cụ này có thể được sử dụng để tổ chức cuộc trưng cầu dân ý hoặc đánh giá mức độ hài lòng của nhân viên trong một công ty lớn.
“Công nghệ này có thể giúp chúng tôi xây dựng các kênh truyền thông thú vị và hiệu quả, kết nối giữa những người ra quyết định và những người trực tiếp chịu ảnh hưởng bởi quyết định đó”, kỹ sư Slonim nói.
