Studie findet potenzielle Vorteile von KI-basierten Systemen zur Erkennung von schwer zu erkennendem Weltraummüll

Eine zunehmende Anzahl von Weltraumobjekten, Trümmern und Satelliten in der erdnahen Umlaufbahn stellt eine erhebliche Kollisionsgefahr bei Weltraumoperationen dar. Die Situation wird derzeit mit Radar und Radioteleskopen überwacht, die Weltraumobjekte verfolgen, doch ein Großteil des Weltraummülls besteht aus sehr kleinen Metallobjekten, die schwer zu erkennen sind.

In einem Studie veröffentlicht in IET-Radar, Sonar und Navigationzeigen Forscher die Vorteile des Einsatzes von Deep Learning – einer Form künstlicher Intelligenz – für die Erkennung kleiner Weltraumobjekte per Radar.

Das Team modellierte ein bekanntes Radarsystem in Europa (Tracking and Imaging Radar) im Tracking-Modus, um Trainings- und Testdaten zu erzeugen. Anschließend verglich die Gruppe klassische Erkennungssysteme mit einem You-Only-Look-Once (YOLO)-basierten Detektor. (YOLO ist ein beliebter Objekterkennungsalgorithmus, der in Computer-Vision-Anwendungen weit verbreitet ist.)

Eine Evaluierung in einer simulierten Umgebung zeigte, dass die YOLO-basierte Erkennung herkömmliche Ansätze übertrifft und eine hohe Erkennungsrate garantiert, während die Fehlalarmraten niedrig bleiben.

„Zusätzlich zur Verbesserung der Weltraumüberwachungsfähigkeiten haben auf künstlicher Intelligenz basierende Systeme wie YOLO das Potenzial, das Management von Weltraummüll zu revolutionieren“, sagte die Mitautorin Federica Massimi, Ph.D., von der Universität Roma Tre in Italien.

„Durch die schnelle Identifizierung und Verfolgung schwer zu erkennender Objekte ermöglichen diese Systeme eine proaktive Entscheidungsfindung und Interventionsstrategien, um Kollisionen und Risiken zu mindern und die Integrität kritischer Weltraumressourcen zu bewahren.“

Mehr Informationen:
Federica Massimi et al., Deep-Learning-basierte Erkennung von Weltraumschrott für das Weltraumsituationsbewusstsein: Eine Machbarkeitsstudie für die Radarverarbeitung, IET-Radar, Sonar und Navigation (2024). DOI: 10.1049/rsn2.12547

ph-tech