Forscher verwenden maschinelles Lernen, um auf bestimmte Fischgeräusche zu hören

Die Kolosseen von Elden Ring oeffnen morgen endlich im kostenlosen

Zur Paarungszeit singen die Fische vor der kalifornischen Küste abends und vor Sonnenaufgang Liebeslieder. Sie vokalisieren nicht so sehr als einzelne Sänger, sondern in Chören, in einigen Fällen laut genug, um von Land aus gehört zu werden. Es ist eine Technik der Romantik, die Frösche, Insekten, Wale und andere Tiere teilen, wenn die Zeit reif ist.

Bei den meisten dieser Gesangsarrangements sind die Refrains niederfrequent. Sie sind kaum von den Geräuschen von Schiffen zu unterscheiden, die unter anderem in der Nacht vorbeifahren.

Biologen sind jedoch seit langem daran interessiert, ihnen zuzuhören, um das Verhalten von Fischen zu verstehen, um ein ultimatives Ziel zu erreichen: Sie können helfen, Fischpopulationen und die Gesundheit der Ozeane zu erhalten, indem sie Laichzeiten identifizieren und dies nutzen, um das Fischereimanagement zu informieren.

Jetzt haben Wissenschaftler der Scripps Institution of Oceanography an der UC San Diego und Kollegen eine Methode entwickelt, mit der Computer die von Feldakustikaufzeichnungspaketen gesammelten Geräusche durchsieben und schneller verarbeiten können als selbst die am besten ausgebildeten menschlichen Analytiker. Die Methode könnte einen großen Fortschritt auf dem Gebiet der Signalverarbeitung mit Anwendungen außerhalb der Meeresumwelt darstellen.

„Meine Hoffnung ist, dass diese Methode anderen helfen wird, Signale automatisch zu trennen und leichter zu erkennen, um zu verstehen, wo und wann sich Fische paaren“, sagte Ella Kim, Doktorandin bei Scripps Oceanography und Hauptautorin der Studie. „Über Fische hinaus könnte diese Methode leicht auf andere Klanglandschaften angewendet werden, um mehr über Frösche, Vögel, Fledermäuse und andere Tiere zu erfahren.“

In der von der NOAA und der US-Marine finanzierten Studie trennten Kim und ihre Kollegen mithilfe einer Technik, die sie SoundScape Learning (SSL) nennt, chorische Fischgeräusche von der gesamten Klanglandschaft. SoundScape Learning kombiniert etablierte Methoden der Klanganalyse mit einem neuronalen Netzwerk, einem Informationsverarbeitungsparadigma, das darauf basiert, wie Neuronen im menschlichen Gehirn die Wahrnehmung ermöglichen.

Die Co-Autorin der Studie, Kaitlin Frasier, eine Meeresakustikerin von Scripps Oceanography, die künstliche Intelligenz eingesetzt hat ihre eigene Recherche Laut Analyse von Delphinklicks trainieren Wissenschaftler oft Maschinen, um nach bestimmten Geräuschen im Ozean zu suchen, aber die Größe der Geräuschkulisse macht dies zu einer schwierigen Aufgabe.

„Ellas Methode zielt darauf ab, Computern beizubringen, das Gesamtbild zu betrachten, Schallereignisse zu finden und zu erkennen, wie etwa die Wälder statt der Bäume aufzunehmen.“

Das „Denoising“, wie Forscher es nennen, kommt ins Spiel, wenn SSL Ereignisse trennt, die immer wieder auftreten, und sie in eine von Forschern als „niederrangige“ Matrix bezeichnete Matrix einfügt. Diese stetigen Geräusche sind getrennt von transienten Geräuschen, wie sie beispielsweise entstehen, wenn Wale oder Schiffe vorbeifahren. Fisch-Chöre finden jede Nacht statt, also werden sie vom Programm in die Low-Rang-Matrix platziert. Die transienten Geräusche werden in eine „spärliche“ Matrix einsortiert.

Kim und Frasier bieten verschiedene Metaphern an, um Nicht-Akustikern zu helfen, das Konzept zu verstehen. Kim schlägt vor, an eine Verkehrskamera zu denken, die stundenlang Aufnahmen eines Autobahnabschnitts aufzeichnet. Die Straße selbst wäre in der niederrangigen Matrix. Das Video der darauf fahrenden Autos wird an die Sparse-Matrix gesendet.

Frasier sagt: „Anstatt zu versuchen, einzelne Wörter in einer Aufnahme zu erkennen, ist es so, als würden wir ein Mikrofon an einer Straßenecke aufstellen, und wir sind jetzt in der Lage, kleine Gruppen von Menschen, die vorbeigehen und sich unterhalten, ein vorbeifliegendes Flugzeug und Licht zu identifizieren Der Algorithmus lernt, die akustischen Merkmale jeder dieser Kategorien selbst zu identifizieren, indem er sie überprüft viele von Dateien.“

Die Zeitersparnis ist erheblich, sagte Kim. In der Studie hörten die Maschinen 5,3 Jahre Audiomaterial ab, das vor der kalifornischen Küste gesammelt wurde. Wenn ein erfahrener Akustiker, der sich mit Fischgesängen in der Gegend auskennt, diese Arbeit manuell erledigen würde, würde es wahrscheinlich einen Monat dauern, aber sobald SSL trainiert ist, dauert der Vorgang nur noch wenige Tage.

Die Studie erschien am 15. März 2023 in Das Journal der Acoustical Society of America. Zu den Co-Autoren gehören Annebelle Kok, Gabrielle Arrieta, Sean Wiggins und Simone Baumann-Pickering von Scripps Oceanography; Megan McKenna und Lindsey Peavey Reeves von der National Marine Sanctuary Foundation; und William Oestreich vom Monterey Bay Aquarium Research Institute.

Mehr Informationen:
Ella B. Kim et al, SoundScape learning: An automatic method for separating fish chorus in marine soundscapes, Das Journal der Acoustical Society of America (2023). DOI: 10.1121/10.0017432

Bereitgestellt von der University of California – San Diego

ph-tech