Quá trình để dạy những con robot học một hành động hay sự việc nào đó có một sự khác biệt rất lớn với việc dạy một con người. Con người có thể hiểu rõ được câu nói “tôi cần một cái cốc” và chỉ việc lấy một chiếc cốc rồi đưa đến cho người kia. Tuy nhiên, quá trình dạy cho robot thì không đơn giản như vậy. Bạn sẽ phải chỉ dạy cẩn thận rằng nó phải quay lại, đi đến cái tủ, mở tủ ra, lấy cái cốc, đóng tủ lại, quay lại và đi về phía người ra lệnh và đưa cái cốc cho họ.
Và một điểm nữa cũng rất quan trọng trong việc dạy bảo robot là làm thế nào bạn có thể lập trình được để một con robot có thể phân biệt bằng trực giác rằng bạn đang cần một chiếc cốc nhựa, cốc thủy tinh hay đơn giản chỉ là cần một chiếc cốc mà thôi? Làm thế nào để bạn có thể thiết kế được một con robot có khả năng tự dạy bản thân mình?
Các nhà nghiên cứu thuộc Viện Nghiên cứu máy tính cao cấp của Trường Đại học Maryland (UMIACS) đã tìm ra một cách. Đó là nhờ vào Youtube. Cụ thể hơn là các bài hướng dẫn nấu ăn được chia sẻ trên Youtube. Bằng cách xem những đoạn video hướng dẫn này robot có thể học hỏi một loạt những thao tác chuyển động phức tạp cần thiết để nấu ăn. Những con robot này sẽ quan sát cách mà con người làm trên đoạn phim và sau đó bắt chước theo.
Robot trong thí nghiệm của Yiannis Aloimonos sử dụng một vài hệ thống quan trọng để có thể học hỏi từ những video trên Youtube. Đầu tiên phải kể đến là hệ thống “thị giác máy tính”. Đây là hệ thống thu thập và xử lý ảnh kỹ thuật số, phân tích và nhận dạng các hình ảnh và các dữ liệu đa chiều từ bên ngoài để cho các ra các thông tin số. Sau khi những “con mắt điện tử” đã thu thập được hình ảnh từ đoạn phim thì một “bộ não điện tử” với trí thông minh nhân tạo sẽ được sử dụng để phân tích các hình ảnh đó. Cuối cùng là hệ thống phân tích cú pháp ngôn ngữ sẽ giúp con robot hiểu được các câu hướng dẫn. Sau khi tổng hợp phân tích từ 3 hệ thống này thì robot sẽ chuyển nó thành hành động.
Cornelia Fermüller đang thực hiện các thí nghiệm với “thị giác máy tính”
Bằng cách này, robot có thể thu thập các bước nấu ăn riêng lẻ từ các video khác nhau và gán cho chúng đánh dấu riêng theo chương trình của nó rồi sau đó đặt chúng lại với nhau theo thứ tự chính xác.
Cornelia Fermüller – Cộng sự của Yiannis Aloimonos và là nhà nghiên cứu khoa học của UMIACS – đã nói rằng: “Chúng tôi đang cố gắng tạo ra một công nghệ robot để cuối cùng có thể tương tác với con người. Để làm được điều đó, chúng ta cần một công cụ để những con robot có thể nhìn và bắt chước hành động của con người”.
Có một sự khác biệt của nhóm nghiên cứu này với các dự án trước đây là chú trọng vào mục tiêu công việc chứ không phải các bước. Những con robot sẽ học cách để lưu trữ các hành động khác nhau vào cơ sở dữ liệu của nó và sử dụng chúng để hoàn thành một công việc chứ không hoàn toàn chỉ bắt chước nguyên văn từng bước từng bước các hành động của con người.
Mô tả sơ lược hoạt động của những con robot
Các loại hành động cầm nắm khác nhau
Theo các thí nghiệm thực tế thì nhìn chung các robot này chỉ đạt được kết quả tỉ lệ nhận biết các loại thức ăn là 73%, tỉ lệ nắm bắt hành động là 93% và dự đoán hành động là 83%. Sự sụt giảm đáng kể về độ chính xác nhận dạng đối tượng là vì các robot đã không được đào tạo về một số đối tượng, chẳng hạn như đậu phụ.
“Bằng việc sáng tạo ra những con robot có thể hoạt động linh hoạt, chúng tôi sẽ đóng góp cho giai đoạn tiếp theo của tự động hóa. Đây sẽ là cuộc cách mạng công nghiệp tiếp theo” – Aloimonos nói. “Chúng tôi sẽ có môi trường sản xuất và kho thông minh hoàn toàn tự động. Điều này sẽ thật tuyệt vời với việc sử dụng robot tự điều khiển cho công việc nguy hiểm như gỡ bom hay làm sạch thảm họa hạt nhân như sự kiện Fukushima. Chúng tôi sẽ chứng minh được rằng có thể cho robot hình người làm công việc của con người trong tương lai”.
Nhóm nghiên cứu sẽ được trình bày nghiên cứu của mình tại Hội nghị phát triển trí thông minh nhân tạo ở Austin, Texas vào ngày 29 Tháng 1 năm 2015.