Zum ersten Mal konnte gezeigt werden, dass ein physisches neuronales Netzwerk „on the fly“ lernen und sich erinnern kann, und zwar auf eine Art und Weise, die von der Funktionsweise der Neuronen im Gehirn inspiriert ist und dieser ähnelt.
Das Ergebnis eröffnet einen Weg zur Entwicklung effizienter und energiesparender maschineller Intelligenz für komplexere, reale Lern- und Gedächtnisaufgaben.
Heute veröffentlicht in NaturkommunikationDie Forschung ist eine Zusammenarbeit zwischen Wissenschaftlern der University of Sydney und der University of California in Los Angeles.
Hauptautor Ruomin Zhu, ein Ph.D. Student vom Nano Institute and School of Physics der University of Sydney sagte: „Die Ergebnisse zeigen, wie gehirninspirierte Lern- und Gedächtnisfunktionen mithilfe von Nanodrahtnetzwerken genutzt werden können, um dynamische Streaming-Daten zu verarbeiten.“
Nanodrahtnetzwerke bestehen aus winzigen Drähten mit einem Durchmesser von nur einem Milliardstel Meter. Die Drähte ordnen sich in Mustern an, die an das Kinderspiel „Pick Up Sticks“ erinnern, und ahmen neuronale Netze nach, wie sie in unserem Gehirn vorkommen. Diese Netzwerke können zur Durchführung spezifischer Informationsverarbeitungsaufgaben genutzt werden.
Gedächtnis- und Lernaufgaben werden mithilfe einfacher Algorithmen gelöst, die auf Änderungen des elektronischen Widerstands an den Überlappungspunkten der Nanodrähte reagieren. Diese als „resistive Memory Switching“ bekannte Funktion entsteht, wenn elektrische Eingaben auf Änderungen der Leitfähigkeit stoßen, ähnlich wie es bei Synapsen in unserem Gehirn geschieht.
In dieser Studie nutzten die Forscher das Netzwerk, um Sequenzen elektrischer Impulse entsprechend Bildern zu erkennen und sich daran zu erinnern, inspiriert von der Art und Weise, wie das menschliche Gehirn Informationen verarbeitet.
Die betreuende Forscherin Professorin Zdenka Kuncic sagte, die Gedächtnisaufgabe ähnelte dem Merken einer Telefonnummer. Das Netzwerk wurde auch verwendet, um eine Benchmark-Bilderkennungsaufgabe durchzuführen und auf Bilder in der MNIST-Datenbank handgeschriebener Ziffern zuzugreifen, einer Sammlung von 70.000 kleinen Graustufenbildern, die beim maschinellen Lernen verwendet werden.
„Unsere frühere Forschung hat die Fähigkeit von Nanodrahtnetzwerken nachgewiesen, sich an einfache Aufgaben zu erinnern. Diese Arbeit hat diese Erkenntnisse erweitert, indem sie gezeigt hat, dass Aufgaben mithilfe dynamischer Daten ausgeführt werden können, auf die online zugegriffen werden kann“, sagte sie.
„Dies ist ein bedeutender Schritt nach vorn, da das Erreichen einer Online-Lernfähigkeit eine Herausforderung darstellt, wenn man mit großen Datenmengen umgeht, die sich ständig ändern können. Ein Standardansatz wäre, Daten im Speicher zu speichern und dann ein maschinelles Lernmodell anhand dieser gespeicherten Informationen zu trainieren.“ Aber das würde für eine breite Anwendung zu viel Energie verschlingen.“
„Unser neuartiger Ansatz ermöglicht es dem nanodrahtigen neuronalen Netzwerk, „on the fly“ Probe für Probe zu lernen und sich zu erinnern, Daten online zu extrahieren und so hohen Speicher- und Energieverbrauch zu vermeiden.“
Herr Zhu sagte, die Online-Verarbeitung von Informationen habe noch weitere Vorteile.
„Wenn die Daten kontinuierlich gestreamt werden, wie es beispielsweise von einem Sensor der Fall wäre, müsste maschinelles Lernen, das auf künstlichen neuronalen Netzen basiert, die Fähigkeit haben, sich in Echtzeit anzupassen, wofür sie derzeit nicht optimiert sind.“ er sagte.
In dieser Studie zeigte das Nanodraht-Neuronale Netzwerk eine Benchmark-Fähigkeit beim maschinellen Lernen und erreichte 93,4 Prozent bei der korrekten Identifizierung von Testbildern. Die Gedächtnisaufgabe bestand darin, Sequenzen mit bis zu acht Ziffern abzurufen. Für beide Aufgaben wurden Daten in das Netzwerk gestreamt, um dessen Fähigkeit zum Online-Lernen zu demonstrieren und zu zeigen, wie das Gedächtnis dieses Lernen verbessert.
Mehr Informationen:
Dynamisches Online-Lernen und Sequenzgedächtnis mit neuromorphen Nanodrahtnetzwerken, Naturkommunikation (2023). DOI: 10.1038/s41467-023-42470-5