Cách điều tra khi một robot gây ra tai nạn
Robot đang ngày càng xuất hiện nhiều hơn trong cuộc sống hàng ngày của chúng ta. Chúng có thể rất hữu ích (các chiếc cánh tay nhân tạo, máy cắt cỏ tự động hoặc robot giao thức ăn cho những người đang cách ly), hoặc chỉ là giải trí (chó robot, đồ chơi nhảy múa và máy bay không người lái biểu diễn). Sự sáng tạo có lẽ là giới hạn duy nhất đối với những gì mà robot có thể làm trong tương lai.
Nhưng điều gì xảy ra khi robot không làm theo những gì chúng ta muốn - hoặc làm một cách gây hại? Ví dụ, điều gì sẽ xảy ra nếu một cánh tay nhân tạo tham gia một tai nạn giao thông?
Tai nạn robot đang trở thành mối quan ngại vì hai lý do. Đầu tiên, sự tăng lên trong số lượng robot sẽ tự nhiên dẫn đến sự gia tăng trong số tai nạn mà chúng tham gia. Thứ hai, chúng ta đang ngày càng giỏi hơn trong việc xây dựng robot phức tạp hơn. Khi một robot phức tạp hơn, việc hiểu tại sao có điều gì đó đã sai trở nên khó khăn hơn.
Hầu hết robot chạy trên các hình thức trí tuệ nhân tạo (AI). AI có khả năng ra quyết định giống như con người (tuy nhiên có thể làm những quyết định tốt hoặc xấu một cách khách quan). Những quyết định này có thể là bất kỳ điều gì, từ nhận diện một đối tượng đến hiểu lời nói.
AI được huấn luyện để ra những quyết định này cho robot dựa trên thông tin từ các bộ dữ liệu rộng lớn. Sau đó, AI được kiểm thử về độ chính xác (khả năng làm điều chúng ta muốn chúng làm) trước khi chúng được đặt nhiệm vụ.
Trí tuệ nhân tạo có thể được thiết kế theo nhiều cách khác nhau. Ví dụ, hãy xem xét robot hút bụi. Nó có thể được thiết kế sao cho mỗi khi va vào một bề mặt, nó sẽ điều hướng lại theo một hướng ngẫu nhiên. Ngược lại, nó cũng có thể được thiết kế để tạo bản đồ vùng xung quanh để tìm kiếm chướng ngại vật, phủ tất cả các khu vực bề mặt và quay trở lại cơ sở sạc của mình. Trong khi chiếc máy hút bụi đầu tiên đang nhận đầu vào từ các cảm biến của mình, chiếc thứ hai đang theo dõi đầu vào đó vào một hệ thống bản đồ nội bộ. Ở cả hai trường hợp, trí tuệ nhân tạo đang nhận thông tin và đưa ra quyết định xoay quanh nó.
Những điều mà một robot có khả năng thực hiện càng phức tạp, nó phải giải mã càng nhiều loại thông tin. Nó cũng có thể đánh giá nhiều nguồn dữ liệu cùng một loại, như, trong trường hợp của dữ liệu nghe, một giọng nói trực tiếp, một radio và gió.
Khi robot trở nên phức tạp hơn và có khả năng tác động dựa trên nhiều loại thông tin, việc xác định thông tin nào robot đã tác động trở nên ngày càng quan trọng, đặc biệt khi gây hại.
Tai nạn xảy ra
Như với bất kỳ sản phẩm nào, mọi thứ có thể và thường xuyên gặp sự cố với robot. Đôi khi đây là vấn đề nội tại, như robot không nhận ra một lệnh giọng nói. Đôi khi nó là vấn đề bên ngoại - cảm biến của robot bị hỏng. Và đôi khi nó có thể là cả hai, như robot không được thiết kế để làm việc trên thảm và "bị vấp". Cuộc điều tra về tai nạn robot phải xem xét tất cả các nguyên nhân có thể.
Mặc dù có thể là phiền toái nếu robot bị hỏng khi có điều gì đó không đúng, nhưng chúng ta lo lắng hơn khi robot gây hại hoặc không giảm thiểu hại cho người. Ví dụ, nếu một cánh tay nhân tạo không nắm chặt đồ uống nóng, đẩy nó xuống chủ sở hữu; hoặc nếu một robot chăm sóc không đăng ký cuộc gọi cứu giúp khi người sử dụng yếu đuối đang ngã.
Tại sao điều tra tai nạn của robot khác biệt so với tai nạn của con người? Đáng chú ý, robot không có động cơ. Chúng ta muốn biết tại sao một robot đưa ra quyết định dựa trên bộ đầu vào cụ thể mà nó có.
Trong ví dụ về cánh tay nhân tạo, liệu đó có phải là một sự hiểu lầm giữa người sử dụng và bàn tay không? Liệu robot có nhầm lẫn giữa nhiều tín hiệu? Khóa đột ngột? Trong ví dụ về người ngã, liệu robot có không "nghe thấy" lời kêu cứu qua tiếng quạt ồn? Hoặc liệu nó có khó khăn trong việc hiểu giọng nói của người sử dụng không?
Hộp đen
Việc điều tra tai nạn của robot mang lại một lợi ích quan trọng so với điều tra tai nạn của con người: có khả năng có một nhân chứng tích hợp. Máy bay thương mại cũng có một nhân chứng tương tự: hộp đen, được thiết kế để chịu được tai nạn máy bay và cung cấp thông tin về lý do tai nạn xảy ra. Thông tin này vô cùng quý giá không chỉ để hiểu rõ các sự cố, mà còn để ngăn chúng xảy ra lại.
Là một phần của RoboTIPS, dự án tập trung vào đổi mới có trách nhiệm cho robot xã hội (robot tương tác với con người), chúng tôi đã tạo ra điều chúng tôi gọi là hộp đen đạo đức: một bản ghi nội bộ về đầu vào và hành động tương ứng của robot. Hộp đen đạo đức được thiết kế cho mỗi loại robot mà nó sinh sống và được xây dựng để ghi lại tất cả thông tin mà robot tác động. Điều này có thể là giọng nói, hình ảnh, hoặc thậm chí là hoạt động sóng não.
Chúng tôi đang thử nghiệm hộp đen đạo đức trên nhiều loại robot cả trong điều kiện phòng thí nghiệm và điều kiện tai nạn mô phỏng. Mục tiêu là hộp đen đạo đức sẽ trở thành tiêu chuẩn trên tất cả các loại và ứng dụng robot.
Mặc dù dữ liệu được ghi lại bởi hộp đen đạo đức vẫn cần được giải đọc trong trường hợp tai nạn, nhưng có dữ liệu này từ đầu là quan trọng để chúng ta có thể điều tra.

Bài viết này do Keri Grieman, Nghiên cứu viên, Bộ môn Khoa học Máy tính, Đại học Oxford, viết và được tái xuất bản từ The Conversation theo giấy phép Creative Commons. Đọc bài viết gốc.
