Es gibt eine breite Palette von Gedanken über Robotergesichter. Es ist aus einigen sehr guten Gründen ein überraschend schwieriger Aspekt, es richtig zu machen. Zum einen sind wir fest verdrahtet, um Gesichter zu erkennen und zu erkennen, sodass kleine Änderungen große Unterschiede machen.
Zum anderen sind sie effektiv ein Fenster zum Verständnis der Stimmung, Gefühle, Absichten usw. einer Person oder eines Tieres. Wenn Sie sie zu einfach machen, verlieren Sie viele wichtige Nuancen. Wenn sie jedoch zu komplex und lebensecht sind, haben Sie gerade ein One-Way-Ticket ins unheimliche Tal gestanzt.
Sobald Sie anfangen, diese Art von Dingen zu verstehen, wird klar, warum viele Unternehmen viel Geld ausgegeben haben, um Verhaltenswissenschaftler zu konsultieren und Animatoren von Orten wie Pixar und Dreamworks einzustellen. Es gibt mehrere Studien, die die Wissenschaft hinter Robotergesichtern untersuchen und welche Sorten für welchen Job am besten geeignet sind. Sie sind super interessant. Ich empfehle, ein paar zu lesen.
Es ist auch klar, warum Agility ein Gesicht für die Version 2.0 seines Ziffernroboters ist. Ich sehe mir viele Roboter an. Es ist ein lustiger Teil der Stellenbeschreibung. Ich habe alle möglichen verschiedenen Sorten gesehen und es braucht viel, um mich zu gruseln (obwohl es so ist durchaus noch möglich), aber ich habe Verständnis für diese viszerale Reaktion, wenn ich einen kopflosen Roboter herumlaufen sehe. Ich vermute, dass sowohl der ursprüngliche Digit als auch sein Vorgänger Cassie im Laufe der Jahre einen fairen Anteil an Kommentaren hervorgerufen haben.
Digit 2.0 kommt diese Woche mit einem minimalistischen Kopf zur ProMat. Es ist eine glänzende, weiße, längliche Struktur mit Sensoren an den Seiten, einem Paar großer, blinkender LED-Augen auf der Vorderseite und einem dritten Licht auf der Rückseite. In Abwesenheit einer Seele sind die Augen das Tor zum Gesicht, und im Fall eines großen, schweren Roboters mit potenziell grenzenloser Mobilität bieten sie (zusammen mit der Körpersprache) Einblick in die Richtung und Absicht des Systems.
„Digit hat auch einen neuen Kopf mit LED-animierten Augen, die HRI-Verbesserungen wie die Verwendung einfacher Ausdrücke zur Übermittlung von Informationen und Absichten ermöglichen“, sagt ein Vertreter des Unternehmens gegenüber Tech. „Zum Beispiel zeigt der neue Digit durch einfache Körpersprache und Augenbewegungen an, in welche Richtung er sich drehen wird.“
Die andere große funktionale ästhetische Änderung hier ist die Hinzufügung von „Endanstrengungen“ – einfache Hände, effektiv. Diese sind so konzipiert, dass sie eine verbesserte Interaktion mit Lagerwerkzeugen wie Behältern ermöglichen. Sicherlich eine Verbesserung gegenüber den Noppen der ursprünglichen Digit. Hände sind hart, besonders wenn sie skalierbar, geschickt und robust genug sind, um dem Alltag standzuhalten.
Das Unternehmen nutzt ProMat auch, um den Zugang zum Agility Partner Program (APP) zu öffnen, das Kunden – sowohl aktuellen als auch zukünftigen – Einfluss auf die zukünftige Entwicklung des Roboters geben soll. Es wird sie auch an die Spitze der Linie bringen, wenn das Produkt in den Verkauf geht. Diese ersten Beta-Roboter werden voraussichtlich Anfang nächsten Jahres eintreffen, mit einer allgemeineren Verfügbarkeit im Folgenden. Agility muss die Preise noch bekannt geben.