Wenn Rodney Brooks über Robotik und künstliche Intelligenz spricht, sollten Sie zuhören. Er ist derzeit emeritierter Panasonic-Professor für Robotik am MIT und Mitbegründer dreier wichtiger Unternehmen, darunter Rethink Robotics, iRobot und sein aktuelles Projekt Robust.ai. Ab 1997 leitete Brooks außerdem zehn Jahre lang das MIT Computer Science and Artificial Intelligence Laboratory (CSAIL).
Tatsächlich macht er gerne Vorhersagen über die Zukunft der KI und führt eine Scorecard auf seinem Blog, wie gut es ihm geht.
Er weiß, wovon er spricht, und er meint, es sei vielleicht an der Zeit, den Hype um generative KI zu bremsen. Brooks hält die Technologie für beeindruckend, aber vielleicht nicht ganz so leistungsfähig, wie viele meinen. „Ich sage nicht, dass LLMs nicht wichtig sind, aber wir müssen vorsichtig sein. [with] wie wir sie bewerten“, sagte er gegenüber Tech.
Er sagt, das Problem mit generativer KI liege darin, dass sie zwar durchaus in der Lage sei, eine bestimmte Reihe von Aufgaben zu erfüllen, aber nicht alles, was ein Mensch kann, und dass Menschen dazu neigen, ihre Fähigkeiten zu überschätzen. „Wenn ein Mensch sieht, wie ein KI-System eine Aufgabe erledigt, verallgemeinert er sie sofort auf Dinge, die ähnlich sind, und schätzt die Kompetenz des KI-Systems ein; nicht nur die Leistung in dieser Hinsicht, sondern auch die Kompetenz in diesem Bereich“, sagte Brooks. „Und sie sind normalerweise sehr überoptimistisch, und das liegt daran, dass sie ein Modell der Leistung einer Person bei einer Aufgabe verwenden.“
Er fügte hinzu, das Problem liege darin, dass generative KI weder menschlich noch menschenähnlich sei und es daher falsch sei, ihr menschliche Fähigkeiten zuzuschreiben. Er sagt, die Leute sähen sie als so leistungsfähig an, dass sie sie sogar für Anwendungen einsetzen wollten, die keinen Sinn ergeben.
Brooks nennt sein neuestes Unternehmen Robust.ai, ein Robotersystem für Lagerhallen, als Beispiel dafür. Jemand schlug ihm kürzlich vor, es wäre cool und effizient, seinen Lagerhallenrobotern zu sagen, wo sie hingehen sollen, indem er ein LLM für sein System baut. Seiner Einschätzung nach ist dies jedoch kein sinnvoller Anwendungsfall für generative KI und würde die Dinge tatsächlich verlangsamen. Stattdessen ist es viel einfacher, die Roboter an einen Datenstrom anzuschließen, der von der Lagerverwaltungssoftware kommt.
„Wenn Sie 10.000 Bestellungen haben, die gerade eingegangen sind und die Sie innerhalb von zwei Stunden versenden müssen, müssen Sie das optimieren. Sprache wird dabei nicht helfen; sie wird die Dinge nur verlangsamen“, sagte er. „Wir verfügen über massive Datenverarbeitung und massive KI-Optimierungstechniken und -Planung. Und so können wir die Bestellungen schnell abwickeln.“
Eine weitere Lektion, die Brooks in Bezug auf Roboter und KI gelernt hat, ist, dass man nicht versuchen kann, zu viel zu tun. Man sollte ein lösbares Problem lösen, in das sich Roboter leicht integrieren lassen.
„Wir müssen dort automatisieren, wo schon alles sauber ist. Mein Unternehmen beispielsweise kommt in Lagerhallen recht gut zurecht, und in Lagerhallen herrscht tatsächlich eine ziemlich eingeschränkte Arbeitsumgebung. Die Beleuchtung ändert sich in diesen großen Gebäuden nicht. Es liegt kein Zeug auf dem Boden herum, weil die Leute, die ihre Einkaufswagen schieben, dagegen stoßen würden. Es fliegen keine Plastiktüten herum. Und im Großen und Ganzen liegt es nicht im Interesse der Leute, die dort arbeiten, den Roboter zu schädigen“, sagte er.
Brooks erklärt, dass es auch darum geht, dass Roboter und Menschen zusammenarbeiten. Deshalb hat sein Unternehmen diese Roboter für praktische Zwecke im Zusammenhang mit Lagervorgängen entwickelt, anstatt einen Roboter zu bauen, der wie ein Mensch aussieht. In diesem Fall sieht er aus wie ein Einkaufswagen mit einem Griff.
„Der von uns verwendete Formfaktor besteht also nicht aus herumlaufenden Humanoiden – obwohl ich mehr Humanoide gebaut und ausgeliefert habe als jeder andere. Diese sehen aus wie Einkaufswagen“, sagte er. „Sie haben einen Lenker, sodass eine Person, wenn es ein Problem mit dem Roboter gibt, den Lenker greifen und damit machen kann, was sie will“, sagte er.
Nach all diesen Jahren hat Brooks gelernt, dass es darauf ankommt, die Technologie zugänglich und zweckbezogen zu machen. „Ich versuche immer, die Technologie für die Menschen leicht verständlich zu machen, damit wir sie in großem Maßstab einsetzen können. Dabei betrachte ich immer den Business Case; der Return on Investment ist auch sehr wichtig.“
Trotzdem müssen wir laut Brooks akzeptieren, dass es bei KI immer schwer zu lösende Sonderfälle geben wird, deren Lösung Jahrzehnte dauern könnte. „Ohne sorgfältige Festlegung der Art und Weise, wie ein KI-System eingesetzt wird, gibt es immer eine lange Reihe von Sonderfällen, deren Entdeckung und Behebung Jahrzehnte dauert. Paradoxerweise sind all diese Lösungen selbst KI-komplett.“
Brooks fügt hinzu, dass dieser Irrglaube vor allem durch Moores Gesetzdass es in Sachen Technologie immer exponentielles Wachstum geben wird – die Idee, wenn ChatGPT 4 schon so gut ist, wie werden dann erst ChatGPT 5, 6 und 7 aussehen? Er sieht einen Fehler in dieser Logik, nämlich dass Technologie trotz Moores Gesetz nicht immer exponentiell wächst.
Er nennt den iPod als Beispiel. Bei einigen Versionen verdoppelte sich die Speicherkapazität tatsächlich von 10 auf 160 GB. Wäre dieser Trend weitergegangen, hätten wir laut seiner Berechnung bis 2017 einen iPod mit 160 TB Speicher, aber das war natürlich nicht der Fall. Die 2017 verkauften Modelle hatten tatsächlich 256 GB oder 160 GB, weil, wie er betonte, niemand mehr brauchte.
Brooks räumt ein, dass LLMs irgendwann bei Haushaltsrobotern helfen könnten, wo sie bestimmte Aufgaben übernehmen könnten, insbesondere angesichts einer alternden Bevölkerung und nicht genügend Menschen, die sich um sie kümmern. Aber selbst das, sagt er, könnte seine eigenen, einzigartigen Herausforderungen mit sich bringen.
„Die Leute sagen: ‚Oh, die großen Sprachmodelle werden Roboter in die Lage versetzen, Dinge zu tun, die sie sonst nicht tun könnten.‘ Darin liegt das Problem aber nicht. Das Problem, Dinge tun zu können, hat mit der Kontrolltheorie und allen möglichen anderen knallharten mathematischen Optimierungen zu tun“, sagte er.
Brooks erklärt, dass dies letztendlich zu Robotern mit nützlichen Sprachschnittstellen für Menschen in Pflegesituationen führen könnte. „Im Lager ist es nicht sinnvoll, einem einzelnen Roboter zu sagen, er solle losgehen und eine Sache für eine Bestellung besorgen, aber für die Altenpflege zu Hause könnte es nützlich sein, wenn die Menschen den Robotern Dinge sagen können“, sagte er.