Các nhà nghiên cứu tại Đại học California, Berkeley, đã tạo ra một con robot độc đáo: một robot tự học cách đi bộ.
Hầu hết các sinh vật sống trên cạn đều phải học cách đi từ khi còn nhỏ. Mỗi loài đều có thời gian học cách sử dụng chân riêng: trẻ em mất vài tháng hoặc vài năm để làm điều đó, trong khi đó, linh dương con có thể làm điều đó gần như ngay sau khi chúng ra đời. Nghiên cứu mới đây đã chỉ ra rằng, một con robot có thể học đi chỉ trong một giờ và không cần phải được lập trình trước.
Con robot đặc biệt này có bốn chân, giống như một con chó cơ học, và có thể tự học cách di chuyển mà không cần bất kỳ mô phỏng nào để hướng dẫn.

Lerrel Pinto, một trong những tác giả của nghiên cứu và trợ lý giáo sư khoa học máy tính tại Đại học New York, chuyên về robot và máy học, cho biết, thành tựu này được thực hiện bởi một AI được nhóm thiết kế và đặt tên là Dreamer.
Dreamer dựa trên một phương pháp được gọi là học tăng cường - 'đào tạo' các thuật toán bằng cách cung cấp phản hồi liên tục và đưa ra các tín hiệu thưởng cho các hành động mong muốn, như hoàn thành thành công một nhiệm vụ. Theo một cách nào đó, quá trình này giống như cách chúng ta học hỏi.
Phương pháp phổ biến trong việc huấn luyện robot là sử dụng mô phỏng máy tính để chúng hiểu về những kiến thức cơ bản trước khi thực hiện các nhiệm vụ tương tự trong thế giới thực.
'Vấn đề là mô phỏng của bạn sẽ không bao giờ hoàn toàn giống như thế giới thực', Danijar Hafner, một nghiên cứu sinh về trí tuệ nhân tạo tại Đại học Toronto và đồng tác giả của bài báo nói.
Điều đặc biệt về Dreamer là nó sử dụng kinh nghiệm đã có trong quá khứ để tự xây dựng mô hình của thế giới xung quanh và thử nghiệm trong một mô phỏng dựa trên mô hình này.

Nói cách khác, nó có thể thực hiện nhiệm vụ của mình trong một môi trường giống như thế giới thực bằng cách dự đoán kết quả của các hành động mà nó định thực hiện. Được trang bị kiến thức này, nó có thể thử những gì mình học được trong một môi trường an toàn. Nó tự làm tất cả điều này. Về cơ bản, nó tự học.
Cách tiếp cận này giúp AI học nhanh hơn nhiều so với trước đây. Ban đầu, nó chỉ biết vẫy chân trong không trung một cách vụng về. Sau khoảng 10 phút, nó có thể tự lật mình và sau 30 phút, nó có thể bắt đầu đi bộ. Tuy nhiên, chỉ sau một giờ thí nghiệm, nó đã có thể tự tin đi xung quanh phòng thí nghiệm.
Ngoài việc tự học cách đi, Dreamer cũng có khả năng thích nghi với các tình huống bất ngờ, chẳng hạn như tránh bị lật đổ bởi một thành viên khác trong nhóm.
Kết quả cho thấy những thành tựu đáng kinh ngạc mà học tăng cường sâu có thể đạt được khi kết hợp với các mô hình từ, đặc biệt khi không có hướng dẫn trước. Sự kết hợp này đã giảm đáng kể thời gian cần thiết cho quá trình đào tạo thông thường trong việc huấn luyện robot bằng phương pháp thử và sai.
Hơn nữa, việc loại bỏ việc cần huấn luyện robot bên trong mô phỏng và cho phép chúng thực hành trong mô hình thế giới của chúng có thể giúp chúng học các kỹ năng trong thời gian thực - cung cấp cho chúng công cụ để thích ứng với các tình huống bất ngờ như lỗi phần cứng. Nó cũng có thể được áp dụng trong các nhiệm vụ phức tạp, như lái xe tự hành.
Bằng cách sử dụng phương pháp này, nhóm đã thành công trong việc huấn luyện ba robot khác nhau để thực hiện các nhiệm vụ đa dạng, bao gồm việc nhặt bóng và chuyển chúng giữa các khay.
Một hạn chế của phương pháp này là việc thiết lập ban đầu tốn rất nhiều thời gian. Các nhà nghiên cứu cần phải rõ ràng về những hành vi nào được coi là tốt - và do đó cần được khen ngợi - và những hành vi nào không được phép. Mỗi nhiệm vụ hoặc vấn đề mà robot phải giải quyết sẽ cần phải được chia thành các nhiệm vụ con và mỗi nhiệm vụ con sẽ được xác định là tích cực hoặc tiêu cực. Điều này cũng làm cho việc lập trình cho các tình huống bất ngờ trở nên rất khó khăn.
Các nhà nghiên cứu hy vọng trong tương lai có thể dạy robot hiểu các mệnh lệnh bằng lời nói, và thậm chí cả gắn camera cho chó robot để nó có khả năng nhìn thấy và di chuyển trong các tình huống phức tạp trong nhà, thậm chí có thể chơi trò tìm kiếm.
Tham khảo: Zmescience
