
Công việc khâu vết thương sau phẫu thuật không chỉ quan trọng mà còn mệt mỏi với các bác sĩ vì họ phải lặp đi lặp lại hành động này nhiều lần. Tuy nhiên, nhờ sự hợp tác giữa Intel và Đại học California, Berkely, trong tương lai, robot có thể giúp giảm bớt gánh nặng này cho các bác sĩ.
Nhóm nghiên cứu của tiến sĩ Ajay Tanwani tại Đại học California, Berkely đã phát triển hệ thống AI học sâu bán giám sát có tên là Motion2Vec. Hệ thống này sẽ học từ các video phẫu thuật được thực hiện bởi các bác sĩ thực tế, quan sát các động tác khi khâu vết thương và tái tạo chúng với độ chính xác cao.
Tanwani cho biết học từ quan sát trực quan sẽ thú vị hơn vì video chứa nhiều thông tin mà họ muốn dạy cho robot.
Tiến sĩ Ken Goldberg – người điều hành UC Berkely và là cố vấn của nhóm Tanwani, nhận định rằng robot hiện nay không thể hiểu video như con người. Mục tiêu là làm cho chúng hiểu hình ảnh bằng cách phân tích và chia video thành các trình tự có ý nghĩa.
Để làm điều này, họ sử dụng mạng nơ-ron siamese để huấn luyện AI. Mạng này giúp tìm hiểu về tính năng tương tự từ dữ liệu không được giám sát và giám sát ít.
Mạng này có khả năng so sánh sự tương đồng giữa hai dữ liệu và được sử dụng để nhận diện hình ảnh như hình ảnh từ camera giám sát và giấy phép lái xe của người. Trong trường hợp này, mạng được sử dụng để giúp robot thực hiện thao tác khâu vết thương giống như bác sĩ.
Với hệ thống học bán giám sát, chỉ cần 78 video từ cơ sở dữ liệu JIGSAWS để huấn luyện AI với độ chính xác 85,5% và sai số trung bình 0,94 cm so với mục tiêu chính xác.
Công nghệ này có thể mất nhiều năm để áp dụng thực tế, nhưng Tanwani tin rằng nó có khả năng. Các AI phẫu thuật này sẽ hoạt động như Driver Assist trên các xe tự động ngày nay, không thay thế bác sĩ mà chỉ thực hiện các thao tác đơn giản và lặp đi lặp lại. Ngoài ra, Motion2Vec cũng có thể được sử dụng cho các nhiệm vụ đơn giản khác.
Họ tin rằng trong tương lai, robot sẽ giúp bác sĩ tập trung vào các công việc quan trọng hơn và hỗ trợ giải quyết các công việc nhàm chán.