Neue Tracking-Technologie enthüllt das verborgene Nahrungsleben von Wüstenameisen

Eine bahnbrechende Tracking-Technologie, die neue Einblicke in die Navigation von Wüstenameisen in ihrer komplexen Welt ermöglicht, könnte die nächste Generation intelligenter, effizienter Roboter inspirieren.

Eine internationale Forschungskooperation, an der die University of Sheffield beteiligt ist, hat eine neue Tracking-Technologie entwickelt, die Computer Vision – ein Gebiet der Informatik, das Computer so programmiert, dass sie Bilder und Videos interpretieren und verstehen – nutzt, um einzelne Wüstenameisen während ihres gesamten Lebens auf Nahrungssuche zu verfolgen. Das Tool dokumentiert die Reise einer Ameise vom ersten Verlassen des Nestes bis zum Finden einer Nahrungsstelle und der Rückkehr in ihre Kolonie.

Ihr neuer Datensatz hat gezeigt, dass die Ameisen unglaublich schnell lernen – sie merken sich ihren Heimweg nach nur einer erfolgreichen Reise. Aber faszinierenderweise entwickelten sich ihre Hinwegrouten im Laufe der Zeit, was auf unterschiedliche Strategien für die Exploration gegenüber der Ausbeutung hinweist. Die hochpräzisen Daten zeigten auch eine zugrunde liegende Oszillationsbewegung, die für das menschliche Auge unsichtbar ist, was erklären kann, wie Ameisen komplexe Suchmuster erzeugen, die an die aktuellen Bedingungen angepasst sind.

Da die neue Software tierartenübergreifend funktioniert und mit Standardkameras aufgenommene Videos verwendet, wird sie bereits von zahlreichen internationalen Forschungsgruppen übernommen und eignet sich ideal für Citizen-Science-Projekte. Die gesammelten hochpräzisen Daten sind entscheidend, um zu verstehen, wie Gehirne Tiere durch ihre komplexe Welt führen können, was eine neue Generation bioinspirierter Roboter inspirieren könnte.

Die neue Technologie und der neue Datensatz – produziert von Dr. Michael Mangan, Senior Lecturer für Maschinelles Lernen und Robotik am Fachbereich Informatik der Universität, mit Lars Haalck und Benjamin Risse von der Westfälischen Wilhelms-Universität Münster, Antoine Wystrach und Leo Clement vom Center for Integrative Biologie von Toulouse und Barbara Webb von der Universität Edinburgh – wird in einer neuen Studie demonstriert, die in der Zeitschrift Science Advances veröffentlicht wurde.

Die Studie beschreibt, wie CATER (Combined Animal Tracking & Environment Reconstruction) künstliche Intelligenz und Computer Vision nutzt, um die Position eines Insekts in Videos zu verfolgen, die mit handelsüblichen Kameras aufgenommen wurden. Das System kann sogar winzige Objekte erkennen, die mit dem Auge schwer zu erkennen sind, und ist robust gegenüber Hintergrundstörungen, Hindernissen und Schatten, sodass es im natürlichen Lebensraum des Tieres funktionieren kann, wo andere Systeme versagen.

Dr. Michael Mangan, Dozent für maschinelles Lernen und Robotik an der University of Sheffield, sagte: „Wir haben diese Daten während einer Sommerexkursion erfasst, aber es hat 10 Jahre gedauert, ein System zu bauen, das in der Lage ist, die Daten zu extrahieren, so wie Sie es könnten sagen, es war ein Jahrzehnt in der Herstellung.

„Ich war schon immer fasziniert davon, wie diese Insekten in solch unwirtlichen Landschaften mit Temperaturen von über 50 Grad Celsius über große Entfernungen – bis zu 1 km – navigieren können.

„Bisher wurden Wüstenameisen von Hand mit Stift und Papier aufgespürt, was bedeutet, mit Schnüren und Pfählen ein Gitter auf dem Boden zu erstellen und ihr Verhalten innerhalb des Gitters zu überwachen. Eine andere Methode, um dies zu umgehen, ist die Verwendung eines Differential Global Positionierungssystem (GPS) – aber die Ausrüstung ist teuer und von geringer Präzision.

„Das Fehlen einer kostengünstigen, robusten Methode zur Erfassung präziser Insektenpfade im Feld hat zu Lücken in unserem Wissen über das Verhalten von Wüstenameisen geführt. Insbesondere darüber, wie sie visuelle Routen lernen, wie schnell sie dies tun und welche Strategien sie anwenden das könnte die Aufgabe vereinfachen.“

Die neue visuelle Verfolgungsmethode von CATER geht diese Herausforderungen an, indem hochauflösendes Filmmaterial von Ameisen in ihrer natürlichen Umgebung aufgenommen und Bildgebungstechnologie verwendet wird, um einzelne Ameisen allein auf der Grundlage von Bewegungen zu identifizieren. Eine neuartige Bildmosaiktechnik wird dann verwendet, um die Landschaft aus den hochauflösenden Bildern zu rekonstruieren oder zusammenzufügen. Dieser neue Ansatz schließt die Lücke zwischen Feld- und Laborstudien und liefert einzigartige Einblicke in das Navigationsverhalten von Ameisen. Solche Daten werden entscheidend sein, um zu zeigen, wie Tiere mit einem Gehirn, das kleiner als ein Stecknadelkopf ist, so effektiv durch ihre komplexe Umgebung navigieren.

Solche Erkenntnisse werden bereits von der wegweisenden Spin-out-Firma Opteran der University of Sheffield in kommerzielle Produkte umgewandelt, die Insektengehirne rückentwickeln, um mithilfe kostengünstiger Sensoren und Computer eine hochrobuste Autonomie zu erzeugen.

Dr. Mangan sagte: „Wüstenameisen sind die ideale Inspiration für Roboter der nächsten Generation – sie navigieren über große Entfernungen, durch raue Umgebungen und verlassen sich nicht auf Pheromonspuren wie andere Ameisen oder GPS und 5G wie aktuelle Roboter.

„Wir hoffen, dass unser Tool es uns ermöglicht, ein vollständigeres Bild davon zu erstellen, wie Insekten lernen, durch ihre Lebensräume zu steuern, neue wissenschaftliche Erkenntnisse zu gewinnen und Ingenieure darüber zu informieren, wie sie ähnlich leistungsfähige künstliche Systeme bauen könnten.“

Bereitgestellt von der University of Sheffield

ph-tech