[A version of this post appeared in TechCrunch’s robotics newsletter, Actuator. Subscribe here.]
Das letzte Mal, dass ich mit NVIDIA ausführlich über Robotik gesprochen habe, war auch das letzte Mal, dass wir Claire Delaunay auf der Bühne unserer Sessions-Veranstaltung präsentierten. Das ist schon eine Weile her. Sie verließ das Unternehmen im vergangenen Juli, um mit Startups zu arbeiten und zu investieren. Tatsächlich kehrte sie vor zwei Wochen auf die Tech-Bühne bei Disrupt zurück, um über ihre Arbeit als Vorstandsberaterin des Agrartechnologieunternehmens Farm-ng zu sprechen.
Nicht, dass Nvidia nach den letzten Ergebnisberichten unbedingt eine positive Bestätigung erwartet, aber es lohnt sich, darauf hinzuweisen, wie gut sich die Robotikstrategie des Unternehmens in den letzten Jahren ausgezahlt hat. Nvidia investierte viel in diese Kategorie zu einer Zeit, als die Mainstreamung der Robotik über die Fertigung hinaus für viele noch wie ein Wunschtraum schien. Im April jährt sich die Markteinführung des TK1 zum zehnten Mal. Nvidia beschrieb das Angebot damals so„Jetson TK1 bietet Entwicklern die Fähigkeiten von Tegra K1 in einer kompakten Plattform mit geringem Stromverbrauch, die die Entwicklung so einfach macht wie die Entwicklung auf einem PC.“
Diesen Februar wird die Firma notiert„Eine Million Entwickler auf der ganzen Welt nutzen mittlerweile die Nvidia Jetson-Plattform für Edge-KI und Robotik, um innovative Technologien zu entwickeln.“ Darüber hinaus haben mehr als 6.000 Unternehmen – ein Drittel davon Startups – die Plattform in ihre Produkte integriert.“
Es wird Ihnen schwer fallen, einen Robotikentwickler zu finden, der sich noch nicht mit der Plattform beschäftigt hat, und ehrlich gesagt ist es bemerkenswert, wie viele Benutzer von Hobbyisten bis hin zu multinationalen Konzernen agieren. Das ist die Art von Spread, für die Unternehmen wie Arduino töten würden.
Letzte Woche habe ich den riesigen Büros des Unternehmens in Santa Clara einen Besuch abgestattet. Die 2018 eröffneten Gebäude sind vom San Tomas Expressway aus nicht zu übersehen. Tatsächlich gibt es eine Fußgängerbrücke, die über die Straße führt und das alte und das neue Hauptquartier verbindet. Der neue Raum besteht im Wesentlichen aus zwei Gebäuden: Voyager und Endeavour, die jeweils 500.000 bzw. 750.000 Quadratmeter groß sind.
Zwischen den beiden befindet sich ein von Bäumen gesäumter Außenweg unter großen, kreuz und quer verlaufenden Spalieren, die Solaranlagen tragen. Der Kampf um die Big-Tech-Zentrale in South Bay ist in den letzten Jahren wirklich hitzig geworden, aber wenn man effektiv Geld druckt, ist der Kauf von Grundstücken und der Bau von Büros wahrscheinlich der beste Weg, dies zu steuern. Fragen Sie einfach Apple, Google und Facebook.
Nvidias Einstieg in die Robotik hat unterdessen von allerlei Kismet profitiert. Das Unternehmen kennt sich mit Silizium zu diesem Zeitpunkt so gut aus wie jeder andere auf der Welt, vom Design und der Herstellung bis hin zur Entwicklung von Systemen mit geringem Stromverbrauch, die immer komplexere Aufgaben erfüllen können. Das ist grundlegend für eine Welt, die zunehmend in KI und ML investiert. Unterdessen hat sich Nvidias umfassendes Wissen rund ums Gaming als großer Gewinn für Isaac Sim, seine Robotik-Simulationsplattform, erwiesen. Es ist wirklich ein perfekter Sturm.
CEO Jensen Huang erklärte im August bei SIGGRAPH: „Wir haben erkannt, dass die Rasterung an ihre Grenzen stößt. 2018 war ein „Wetten Sie auf das Unternehmen“-Moment. Es erforderte, dass wir die Hardware, die Software und die Algorithmen neu erfinden. Und während wir CG mit KI neu erfanden, erfanden wir die GPU für KI neu.“
Nach einigen Demos setzte ich mich mit Deepu Talla, Nvidias Vizepräsident und General Manager für Embedded & Edge Computing, zusammen. Als wir zu sprechen begannen, zeigte er auf ein Cisco-Telefonkonferenzsystem an der gegenüberliegenden Wand, auf dem die Jetson-Plattform läuft. Es ist weit entfernt von den typischen AMRs, an die wir denken, wenn wir an Jetson denken.
„Die meisten Menschen stellen sich Robotik als ein physisches Ding vor, das typischerweise Arme, Beine, Flügel oder Räder hat – was man sich als Wahrnehmung von innen nach außen vorstellt“, bemerkte er in Bezug auf das Bürogerät. „Genau wie Menschen. Menschen verfügen über Sensoren, um unsere Umgebung zu erkennen und sich ein Situationsbewusstsein zu verschaffen. Es gibt auch dieses Ding namens Outside-In-Robotik. Diese Dinger bewegen sich nicht. Stellen Sie sich vor, Sie hätten Kameras und Sensoren in Ihrem Gebäude. Sie können sehen, was passiert. Wir haben eine Plattform namens Nvidia Metropolis. Es verfügt über Videoanalysen und lässt sich für Verkehrskreuzungen, Flughäfen und Einzelhandelsumgebungen skalieren.“
Wie war die erste Reaktion, als Sie 2015 das Jetson-System vorstellten? Es kam von einem Unternehmen, das die meisten Menschen mit Gaming assoziieren.
Ja, obwohl sich das ändert. Aber du hast recht. Daran sind die meisten Verbraucher gewöhnt. KI war noch neu, man musste erklären, welchen Anwendungsfall man verstand. Im November 2015, Jensen [Huang] und ich ging nach San Francisco, um ein paar Dinge vorzustellen. Das Beispiel, das wir hatten, war eine autonome Drohne. Wenn Sie eine autonome Drohne bauen wollten, was wäre dafür nötig? Sie müssten so viele Sensoren haben, Sie müssten so viele Frames verarbeiten, Sie müssten dies identifizieren. Wir haben einige grobe Berechnungen angestellt, um herauszufinden, wie viele Berechnungen wir benötigen würden. Und wenn Sie es heute tun möchten, welche Option haben Sie? So etwas gab es damals nicht.
Wie hat Nvidias Gaming-Geschichte seine Robotikprojekte beeinflusst?
Als wir das Unternehmen gründeten, war es Gaming, das uns die Entwicklung der GPUs finanzierte. Dann haben wir CUDA zu unseren GPUs hinzugefügt, damit es für nichtgrafische Anwendungen verwendet werden kann. CUDA hat uns im Wesentlichen zur KI gebracht. Jetzt hilft KI beim Spielen, zum Beispiel durch Raytracing. Letztendlich bauen wir Mikroprozessoren mit GPUs. Die gesamte Middleware, über die wir gesprochen haben, ist dieselbe. CUDA gilt gleichermaßen für Robotik, Hochleistungsrechnen und KI in der Cloud. Nicht jeder muss alle Teile von CUDA nutzen, aber es ist dasselbe.
Wie schneidet Isaac Sim im Vergleich ab? [Open Robotics’] Pavillon?
Gazebo ist ein guter Basissimulator für begrenzte Simulationen. Wir versuchen nicht, Gazebo zu ersetzen. Ein Pavillon eignet sich gut für grundlegende Aufgaben. Wir bieten eine einfache ROS-Brücke, um Gazebo mit Isaac Sim zu verbinden. Aber Isaac kann Dinge tun, die niemand sonst tun kann. Es basiert auf Omniverse. Alle Dinge, die Sie in Omniverse haben, kommen zu Isaac Sim. Es ist außerdem so konzipiert, dass es jeden KI-Modus, jedes Framework und alle Dinge, die wir in der realen Welt tun, integrieren kann. Für volle Autonomie können Sie es anschließen. Es hat auch die visuelle Treue.
Sie wollen nicht mit ROS konkurrieren.
Nein, nein. Denken Sie daran, wir versuchen, eine Plattform aufzubauen. Wir möchten uns mit allen vernetzen und anderen dabei helfen, unsere Plattform genauso zu nutzen, wie wir ihre nutzen. Es hat keinen Sinn, zu konkurrieren.
Arbeiten Sie mit Forschungsuniversitäten zusammen?
Absolut. Dieter Fox ist der Leiter der Nvidia-Robotikforschung. Er ist außerdem Professor für Robotik an der University of Washington. Und viele unserer Forschungsmitglieder haben auch eine doppelte Zugehörigkeit. In vielen Fällen sind sie an Universitäten angeschlossen. Wir veröffentlichen. Wenn Sie recherchieren, muss es offen sein.
Arbeiten Sie mit Endbenutzern an Dingen wie der Bereitstellung oder dem Flottenmanagement zusammen?
Wahrscheinlich nicht. Wenn John Deere beispielsweise einen Traktor verkauft, sprechen die Landwirte nicht mit uns. Typischerweise ist das Flottenmanagement. Wir verfügen über Hilfsmittel, um ihnen zu helfen, aber das Flottenmanagement wird von demjenigen übernommen, der die Dienstleistung erbringt oder den Roboter baut.
Wann wurde Robotik für Nvidia zum Puzzleteil?
Ich würde sagen, Anfang der 2010er Jahre. Das war der Moment, in dem KI passierte. Ich glaube, das erste Mal, dass Deep Learning auf der ganzen Welt Einzug hielt, war 2012. Das gab es ein aktuelles Profil über Bryan Catanzaro. Er sagte dann sofort weiter LinkedIn, [Full quote excerpted from the LinkedIn post]„Ich habe Jensen nicht wirklich überzeugt, sondern ihm nur Deep Learning erklärt. Er entwickelte sofort seine eigene Überzeugung und machte Nvidia zu einem KI-Unternehmen. Es war inspirierend zuzusehen und ich kann manchmal immer noch nicht glauben, dass ich dabei sein durfte, um Nvidias Transformation mitzuerleben.“
Im Jahr 2015 starteten wir KI nicht nur für die Cloud, sondern auch für EDGE sowohl für Jetson als auch für autonomes Fahren.
Wenn Sie mit Menschen über generative KI sprechen, wie überzeugen Sie sie davon, dass es sich dabei um mehr als nur eine Modeerscheinung handelt?
Ich denke, das spiegelt sich in den Ergebnissen wider. Sie können die Produktivitätssteigerung bereits erkennen. Es kann eine E-Mail für mich verfassen. Es ist nicht ganz richtig, aber ich muss nicht bei Null anfangen. Es gibt mir 70 %. Es gibt offensichtliche Dinge, die Sie bereits erkennen können und die definitiv eine Schrittfunktion besser sind als zuvor. Zusammenfassend lässt sich sagen, dass etwas nicht perfekt ist. Ich werde es nicht für mich lesen und zusammenfassen lassen. Sie können also bereits einige Anzeichen für Produktivitätsverbesserungen erkennen.