Modell des maschinellen Lernens gibt Aufschluss darüber, wie Gehirne Kommunikationsgeräusche erkennen

Die EU schlaegt einen 12 Milliarden Dollar Plan vor um den wachsenden Cybersicherheitsbedrohungen

In einem heute veröffentlichten Artikel in Kommunikationsbiologiebeschreiben auditive Neurowissenschaftler an der University of Pittsburgh ein maschinelles Lernmodell, das erklärt, wie das Gehirn die Bedeutung von Kommunikationsgeräuschen wie Tierrufen oder gesprochenen Worten erkennt.

Der in der Studie beschriebene Algorithmus modelliert, wie soziale Tiere, einschließlich Weißbüschelaffen und Meerschweinchen, Geräuschverarbeitungsnetzwerke in ihrem Gehirn verwenden, um Geräuschkategorien – wie Paarungs-, Futter- oder Gefahrenrufe – zu unterscheiden und darauf zu reagieren.

Die Studie ist ein wichtiger Schritt zum Verständnis der Feinheiten und Komplexität der neuronalen Verarbeitung, die der Tonerkennung zugrunde liegt. Die Erkenntnisse aus dieser Arbeit ebnen den Weg zum Verständnis und schließlich zur Behandlung von Störungen, die die Spracherkennung beeinträchtigen, und zur Verbesserung von Hörgeräten.

„Mehr oder weniger jeder, den wir kennen, verliert irgendwann in seinem Leben einen Teil seines Gehörs, entweder als Folge des Alterns oder der Lärmbelastung. Es ist wichtig, die Biologie der Geräuscherkennung zu verstehen und Wege zu finden, sie zu verbessern“, sagte der leitende Autor und Pitt-Assistenzprofessor für Neurobiologie Srivatsun Sadagopan, Ph.D. „Aber der Prozess der stimmlichen Kommunikation ist an und für sich faszinierend. Die Art und Weise, wie unsere Gehirne miteinander interagieren und Ideen aufnehmen und sie durch Klang übermitteln können, ist geradezu magisch.“

Menschen und Tiere begegnen täglich einer erstaunlichen Vielfalt an Geräuschen, von der Kakophonie des Dschungels bis zum Summen in einem gut besuchten Restaurant. Ungeachtet der Lärmbelästigung in der Welt, die uns umgibt, sind Menschen und andere Tiere in der Lage, miteinander zu kommunizieren und sich zu verstehen, einschließlich ihrer Stimmlage oder ihres Akzents.

Wenn wir beispielsweise das Wort „Hallo“ hören, erkennen wir seine Bedeutung, unabhängig davon, ob es mit amerikanischem oder britischem Akzent gesagt wurde, ob der Sprecher eine Frau oder ein Mann ist, ob wir uns in einem ruhigen Raum befinden oder beschäftigt sind Überschneidung.

Das Team begann mit der Intuition, dass die Art und Weise, wie das menschliche Gehirn die Bedeutung von Kommunikationsgeräuschen erkennt und erfasst, ähnlich sein könnte, wie es Gesichter im Vergleich zu anderen Objekten erkennt. Gesichter sind sehr unterschiedlich, haben aber einige gemeinsame Merkmale.

Anstatt jedes Gesicht, dem wir begegnen, einem perfekten „Muster“-Gesicht zuzuordnen, nimmt unser Gehirn nützliche Merkmale wie Augen, Nase und Mund und ihre relativen Positionen auf und erstellt eine mentale Karte dieser kleinen Merkmale, die ein definieren Gesicht.

In einer Reihe von Studien zeigte das Team, dass auch Kommunikationsgeräusche aus solch kleinen Merkmalen bestehen können. Die Forscher bauten zunächst ein maschinelles Lernmodell der Tonverarbeitung, um die verschiedenen Geräusche sozialer Tiere zu erkennen.

Um zu testen, ob die Gehirnreaktionen mit dem Modell übereinstimmten, zeichneten sie die Gehirnaktivität von Meerschweinchen auf, die den Kommunikationsgeräuschen ihrer Art lauschten. Neuronen in Regionen des Gehirns, die für die Verarbeitung von Geräuschen verantwortlich sind, leuchteten mit einer Flut elektrischer Aktivität auf, wenn sie ein Geräusch hörten, das Merkmale aufwies, die in bestimmten Arten dieser Geräusche vorhanden waren, ähnlich dem maschinellen Lernmodell.

Anschließend wollten sie die Leistung des Modells mit dem realen Verhalten der Tiere vergleichen.

Meerschweinchen wurden in ein Gehege gesetzt und verschiedenen Geräuschkategorien ausgesetzt – Quietschen und Grunzen, die als unterschiedliche Geräuschsignale kategorisiert werden. Die Forscher trainierten die Meerschweinchen dann, in verschiedene Ecken des Geheges zu gehen und je nach abgespielter Geräuschkategorie Fruchtbelohnungen zu erhalten.

Dann machten sie die Aufgaben schwieriger: Um die Art und Weise nachzuahmen, wie Menschen die Bedeutung von Wörtern erkennen, die von Menschen mit unterschiedlichem Akzent gesprochen wurden, ließen die Forscher Meerschweinchenrufe durch klangverändernde Software laufen, beschleunigten oder verlangsamten sie, hoben oder senkten ihre Tonhöhe , oder Hinzufügen von Rauschen und Echos.

Die Tiere waren nicht nur in der Lage, die Aufgabe so konstant auszuführen, als ob die gehörten Rufe unverändert wären, sie leisteten trotz künstlicher Echos oder Geräusche weiterhin gute Arbeit. Besser noch, das maschinelle Lernmodell beschrieb ihr Verhalten (und die zugrunde liegende Aktivierung von geräuschverarbeitenden Neuronen im Gehirn) perfekt.

Als nächsten Schritt übersetzen die Forscher die Genauigkeit des Modells von Tieren in die menschliche Sprache.

„Aus technischer Sicht gibt es viel bessere Spracherkennungsmodelle. Das Einzigartige an unserem Modell ist, dass wir eine enge Übereinstimmung mit Verhalten und Gehirnaktivität haben, was uns einen besseren Einblick in die Biologie gibt. In Zukunft können diese Erkenntnisse sein.“ verwendet, um Menschen mit neurologischen Entwicklungsstörungen zu helfen oder bessere Hörgeräte zu entwickeln“, sagte der Hauptautor Satyabrata Parida, Ph.D., Postdoktorand an Pitts Abteilung für Neurobiologie.

„Viele Menschen kämpfen mit Bedingungen, die es ihnen erschweren, Sprache zu erkennen“, sagte Manaswini Kar, ein Student im Sadagopan-Labor. „Zu verstehen, wie ein neurotypisches Gehirn Wörter erkennt und die auditive Welt um es herum sinnvoll macht, wird es ermöglichen, diejenigen zu verstehen und ihnen zu helfen, die kämpfen.“

Mehr Informationen:
Srivatsun Sadagopan et al, Adaptive Mechanismen ermöglichen eine robuste Leistung bei Lärm und Nachhall in einem auditiven Kategorisierungsmodell, Kommunikationsbiologie (2023). DOI: 10.1038/s42003-023-04816-z

Bereitgestellt von der University of Pittsburgh

ph-tech