Forscher entwickeln neues KI-Tool zur erweiterten Analyse des Tierverhaltens

Die Analyse des Verhaltens von Tieren ist ein grundlegendes Instrument in verschiedenen Studien, von der neurowissenschaftlichen Grundlagenforschung bis hin zum Verständnis der Ursachen und Behandlungen von Krankheiten. Sie wird nicht nur in der biologischen Forschung, sondern auch in verschiedenen Industriebereichen, einschließlich der Robotik, häufig eingesetzt.

In jüngster Zeit wurden Anstrengungen unternommen, das Verhalten von Tieren mithilfe von KI-Technologie genau zu analysieren. Allerdings gibt es für die KI immer noch Einschränkungen, wenn es darum geht, unterschiedliche Verhaltensweisen intuitiv zu erkennen, wie es menschliche Beobachter können.

Bei der traditionellen Verhaltensforschung werden Tiere hauptsächlich mit einer einzigen Kamera gefilmt und dann niedrigdimensionale Daten wie Zeitpunkt und Häufigkeit bestimmter Bewegungen analysiert. Die Analysemethode lieferte der KI für jedes Trainingsdatenstück entsprechende Ergebnisse, ähnlich wie wenn man der KI einfach Fragen und den Antwortschlüssel zuführt.

Diese Methode ist zwar unkompliziert, erfordert jedoch Zeit und arbeitsintensive menschliche Überwachung, um die Daten zu erstellen. Auch der Beobachterbias ist ein Faktor, da die Analyseergebnisse durch das subjektive Urteil des Experimentators verfälscht werden können.

Um diese Einschränkungen zu überwinden, hat ein gemeinsames Forschungsteam unter der Leitung von Direktor C. Justin Lee vom Center for Cognition and Sociality am Institute for Basic Science und Cha Meeyoung, dem Chief Investigator (CI) der Data Science Group am IBS Center for Mathematical and Computational Sciences (auch Professor an der School of Computing am KAIST), ein neues Analysetool namens SUBTLE (Spectrogram-UMAP-Based Temporal-Link Embedding) entwickelt. SUBTLE klassifiziert und analysiert das Verhalten von Tieren durch KI-Lernen auf der Grundlage von 3D-Bewegungsinformationen.

Das Papier ist veröffentlicht im Internationale Zeitschrift für Computer Vision.

Zunächst zeichnete das Forschungsteam die Bewegungen der Mäuse mit mehreren Kameras auf und extrahierte die Koordinaten von neun Schlüsselpunkten wie Kopf, Beinen und Hüften, um im Zeitverlauf dreidimensionale Daten zur Bewegung des Aktionsskeletts zu erhalten.

Anschließend reduzierten sie diese Zeitreihendaten zum Einbetten in zwei Dimensionen. Dabei entsteht eine Sammlung von Vektoren, die den einzelnen Daten entsprechen, sodass komplexe Daten präziser und aussagekräftiger dargestellt werden können.

Als nächstes gruppierten die Forscher ähnliche Verhaltenszustände in Untercluster und gruppierten diese Untercluster in Supercluster, die standardisierte Verhaltensmuster (Repertoires) wie Gehen, Stehen, Körperpflege usw. darstellten.

Während dieses Prozesses schlugen sie eine neue Metrik namens Temporal Proximity Index (TPI) vor, um Verhaltensdatencluster auszuwerten. Diese Metrik misst, ob jedes Cluster denselben Verhaltenszustand enthält und zeitliche Bewegungen effektiv darstellt, ähnlich wie Menschen zeitliche Informationen bei der Klassifizierung von Verhalten als wichtig erachten.

CI Cha Meeyoung erklärte: „Die Einführung neuer Bewertungsmaßstäbe und Benchmark-Daten zur Unterstützung der Automatisierung der Klassifizierung des Tierverhaltens ist das Ergebnis der Zusammenarbeit zwischen Neurowissenschaft und Datenwissenschaft. Wir erwarten, dass dieser Algorithmus in verschiedenen Branchen von Nutzen sein wird, in denen Verhaltensmuster erkannt werden müssen, darunter auch in der Robotikbranche, die darauf abzielt, Tierbewegungen nachzuahmen.“

Direktor C. Justin Lee, der diese Forschung leitete, sagte: „Wir haben ein effektives Rahmenwerk für die Verhaltensanalyse entwickelt, das menschliche Eingriffe minimiert und gleichzeitig komplexe Verhaltensweisen von Tieren durch die Anwendung menschlicher Verhaltensmustererkennungsmechanismen versteht. Dieses Rahmenwerk hat bedeutende industrielle Anwendungen und kann auch als Werkzeug verwendet werden, um tiefere Einblicke in die Prinzipien der Verhaltenserkennung im Gehirn zu gewinnen.“

Darüber hinaus übertrug das Forschungsteam im April letzten Jahres die SUBTLE-Technologie an Actnova, ein Unternehmen, das auf KI-basierte klinische und nicht-klinische Verhaltenstestanalysen spezialisiert ist. Das Team nutzte Actnovas System zur Analyse des Tierverhaltens, AVATAR3D, um für diese Forschung 3D-Bewegungsdaten von Tieren zu erhalten.

Das Forschungsteam hat den Code von SUBTLE zudem als Open Source freigegeben. Eine benutzerfreundliche grafische Benutzeroberfläche (GUI) zur Analyse des Tierverhaltens ist über das SUBTLE-Webdienst für Forscher, die mit Programmierung nicht vertraut sind.

Mehr Informationen:
Jea Kwon et al, SUBTLE: Eine unbeaufsichtigte Plattform mit Temporal Link Embedding, die das Verhalten von Tieren abbildet, Internationale Zeitschrift für Computer Vision (2024). DOI: 10.1007/s11263-024-02072-0

Zur Verfügung gestellt vom Institute for Basic Science

ph-tech