Es gibt unzählige Gründe, warum Heimroboter nach Roomba wenig Erfolg hatten. Preis, Praktikabilität, Formfaktor und Mapping haben alle zu einem Misserfolg nach dem anderen beigetragen. Selbst wenn einige oder alle davon angegangen werden, bleibt die Frage, was passiert, wenn ein System einen unvermeidlichen Fehler macht.
Dies war auch auf industrieller Ebene ein Reibungspunkt, aber große Unternehmen verfügen über die Ressourcen, um auftretende Probleme angemessen anzugehen. Wir können jedoch nicht erwarten, dass Verbraucher lernen, zu programmieren oder jemanden einzustellen, der ihnen jederzeit helfen kann, wenn ein Problem auftritt. Glücklicherweise ist dies ein großartiger Anwendungsfall für LLMs (große Sprachmodelle) im Robotikbereich, wie neue Forschungsergebnisse des MIT zeigen.
Eine Studie Das Buch, das im Mai auf der International Conference on Learning Representations (ICLR) vorgestellt werden soll, soll ein wenig „gesunden Menschenverstand“ in den Prozess der Fehlerkorrektur einbringen.
„Es stellt sich heraus, dass Roboter hervorragende Nachahmer sind“, erklärt die Schule. „Aber wenn die Ingenieure sie nicht auch so programmieren, dass sie sich an alle möglichen Stöße und Stöße anpassen, wissen Roboter nicht unbedingt, wie sie mit diesen Situationen umgehen sollen, es sei denn, sie beginnen ihre Aufgabe ganz oben.“
Wenn Roboter auf Probleme stoßen, schöpfen sie traditionell ihre vorprogrammierten Optionen aus, bevor ein menschliches Eingreifen erforderlich ist. Dies ist ein besonders großes Problem in einer unstrukturierten Umgebung wie einem Zuhause, wo sich eine Vielzahl von Änderungen am Status quo negativ auf die Funktionsfähigkeit eines Roboters auswirken können.
Forscher, die hinter der Studie stehen, weisen darauf hin, dass Nachahmungslernen (das Erlernen einer Aufgabe durch Beobachtung) zwar in der Welt der Heimrobotik beliebt ist, die unzähligen kleinen Umgebungsschwankungen, die den regulären Betrieb beeinträchtigen können, jedoch oft nicht berücksichtigt werden kann und daher ein System erfordert von vorne beginnen. Die neue Forschung befasst sich teilweise damit, Demonstrationen in kleinere Teilmengen aufzuteilen, anstatt sie als Teil einer kontinuierlichen Aktion zu behandeln.
Hier kommen wiederum LLMs ins Spiel, sodass der Programmierer die zahlreichen Unteraktionen nicht mehr individuell kennzeichnen und zuweisen muss.
„LLMs haben die Möglichkeit, Ihnen in natürlicher Sprache zu sagen, wie jeder Schritt einer Aufgabe zu erledigen ist. Die kontinuierliche Demonstration eines Menschen ist die Verkörperung dieser Schritte im physischen Raum“, sagt der Doktorand Tsun-Hsuan Wang. „Und wir wollten beides verbinden, damit ein Roboter automatisch weiß, in welcher Phase einer Aufgabe er sich befindet, und selbstständig neu planen und wiederherstellen kann.“
Bei der besonderen Demonstration in der Studie geht es darum, einem Roboter beizubringen, Murmeln zu schöpfen und in eine leere Schüssel zu gießen. Für Menschen ist es eine einfache, wiederholbare Aufgabe, aber für Roboter ist es eine Kombination aus verschiedenen kleinen Aufgaben. Die LLMs sind in der Lage, diese Teilaufgaben aufzulisten und zu kennzeichnen. Bei den Demonstrationen sabotierten die Forscher die Aktivität auf kleine Weise, indem sie den Roboter beispielsweise vom Kurs abbrachen und Murmeln aus seinem Löffel schlugen. Das System reagierte, indem es die kleinen Aufgaben selbst korrigierte, anstatt bei Null anzufangen.
„Wenn der Roboter mit unserer Methode Fehler macht, müssen wir die Menschen nicht bitten, zu programmieren oder zusätzliche Demonstrationen zu geben, wie man Fehler behebt“, fügt Wang hinzu.
Es ist eine überzeugende Methode, um zu vermeiden, dass man völlig den Verstand verliert.