Robotisches Lernen hat sich schnell zu einer der lebhaftesten Kategorien der Automatisierung entwickelt – und das verständlicherweise. Das Programmieren eines Roboters erfordert traditionell viel technisches Know-how, aber was wäre, wenn es einen einfacheren Weg für Nicht-Programmierer/Robotiker gäbe, diesen Systemen beizubringen, das zu tun, was wir wollen?
Imitation und Reinforcement Learning sind derzeit zwei der beliebtesten Methoden. Die erste besteht darin, die Kontrolle über den Roboter zu übernehmen, um ihm beizubringen, eine Aufgabe auszuführen, während die zweite darin besteht, ein System mit Millionen von Bildern zu trainieren.
Eine Reihe von Forschern erforscht eine noch intuitivere Methode, die ein System effektiv trainiert, indem sie einem Menschen beim Ausführen einer Aufgabe zusehen. Ein Team der Carnegie Mellon University demonstriert das in-the-Wild Human Imitating Robot Learning (WHIRL), einen Algorithmus, der ein System trainieren kann, indem er sich ein Video ansieht.
In ihren Demos lernt ein handelsüblicher mobiler Roboterarm, mehr als 20 Haushaltsarbeiten zu erledigen, darunter das Öffnen und Schließen von Schubladen und Geräten und das Herausbringen des Mülls.
„Nachahmung ist eine großartige Möglichkeit zu lernen“, sagte Shikhar Bahl, Doktorandin des Robotics Institute, in einer Pressemitteilung. „Dass Roboter tatsächlich lernen, indem sie Menschen direkt beobachten, bleibt ein ungelöstes Problem auf diesem Gebiet, aber diese Arbeit macht einen bedeutenden Schritt, um diese Fähigkeit zu ermöglichen.“
Es ist leicht zu erkennen, wie sich eine Funktion wie diese in einer häuslichen Umgebung als besonders praktisch erweisen könnte, wo Robotiker davon ausgehen, dass diese Systeme eines Tages eingesetzt werden, um älteren Hausbesitzern und anderen Menschen mit Bewegungseinschränkungen zu helfen.
Bei WHIRL sind keine speziellen Add-Ons erforderlich. Der Roboter versucht einfach, eine bestimmte Aufgabe auszuführen, bis er erfolgreich ist, auch wenn es mehrere Male dauert, bis er sie vollständig beherrscht. Wie CMU feststellt, ist sein eigener Ansatz möglicherweise nicht mit dem des Menschen identisch – stattdessen sucht das System nach der besten Methode, um die Aufgabe basierend auf seinen eigenen Hardwarebeschränkungen zu erledigen.
Im Moment wird das System durch das Ansehen von Videos trainiert, und das Team möchte die Dinge erweitern, um Clips von Diensten wie YouTube einzubeziehen.