Optische Navigationstechnologie könnte die Planetenerkundung vereinfachen

In einer dunklen, kargen Landschaft wie der Mondoberfläche kann man sich leicht verirren. Da es nur wenige erkennbare Orientierungspunkte gibt, an denen man sich mit bloßem Auge orientieren kann, müssen Astronauten und Rover auf andere Mittel zurückgreifen, um ihren Kurs festzulegen.

Im Rahmen ihrer Missionen vom Mond zum Mars, die die Erforschung der Mondoberfläche und die ersten Schritte auf dem Roten Planeten umfassen, ist die Suche nach neuen und effizienten Wegen zur Navigation in diesen neuen Gebieten von entscheidender Bedeutung. Hier kommt die optische Navigation ins Spiel – eine Technologie, die dabei hilft, neue Gebiete mithilfe von Sensordaten zu kartieren.

Das Goddard Space Flight Center der NASA in Greenbelt, Maryland, ist ein führender Entwickler optischer Navigationstechnologie. So half beispielsweise GIANT (Goddard Image Analysis and Navigation Tool) der OSIRIS-REx-Mission, eine sichere Probenentnahme beim Asteroiden Bennu zu ermöglichen, indem es 3D-Karten der Oberfläche erstellte und genaue Entfernungen zu Zielen berechnete.

Jetzt treiben drei Forschungsteams bei Goddard die optische Navigationstechnologie noch weiter voran.

Entwicklung virtueller Welten

Chris Gnam, Praktikant bei NASA Goddard, leitet die Entwicklung einer Modellierungs-Engine namens Vira, die bereits große 3D-Umgebungen etwa 100-mal schneller rendert als GIANT. Diese digitalen Umgebungen können verwendet werden, um potenzielle Landegebiete zu bewerten, Sonneneinstrahlung zu simulieren und vieles mehr.

Grafik-Engines für Endverbraucher, wie sie beispielsweise für die Entwicklung von Videospielen verwendet werden, können zwar große Umgebungen schnell rendern, die meisten davon können jedoch nicht die Details liefern, die für wissenschaftliche Analysen erforderlich sind. Für Wissenschaftler, die eine Planetenlandung planen, ist jedes Detail von entscheidender Bedeutung.

„Vira kombiniert die Geschwindigkeit und Effizienz von Grafikmodellierern für Privatanwender mit der wissenschaftlichen Genauigkeit von GIANT“, sagte Gnam. „Mit diesem Tool können Wissenschaftler komplexe Umgebungen wie Planetenoberflächen schnell modellieren.“

Die Vira-Modellierungs-Engine wird zur Unterstützung der Entwicklung von LuNaMaps (Lunar Navigation Maps) eingesetzt. Ziel dieses Projekts ist es, die Qualität der Karten der Südpolregion des Mondes zu verbessern, einem wichtigen Erkundungsziel der Artemis-Missionen der NASA.

Vira verwendet Raytracing auch, um zu modellieren, wie sich Licht in einer simulierten Umgebung verhält. Während Raytracing häufig bei der Entwicklung von Videospielen verwendet wird, nutzt Vira es zur Modellierung des Sonnenstrahlungsdrucks, der sich auf durch Sonnenlicht verursachte Impulsänderungen eines Raumfahrzeugs bezieht.

Finden Sie Ihren Weg mit einem Foto

Ein weiteres Team bei Goddard entwickelt ein Werkzeug, das die Navigation anhand von Bildern des Horizonts ermöglicht. Andrew Liounis, Produktdesignleiter für optische Navigation, leitet das Team und arbeitet mit den NASA-Praktikanten Andrew Tennenbaum und Will Driessen sowie Alvin Yew, dem Leiter der Gasverarbeitung für die DAVINCI-Mission der NASA, zusammen.

Ein Astronaut oder Rover, der diesen Algorithmus verwendet, könnte ein Bild vom Horizont aufnehmen, das das Programm mit einer Karte des erkundeten Gebiets vergleichen würde. Der Algorithmus würde dann den geschätzten Standort ausgeben, an dem das Foto aufgenommen wurde.

Anhand eines Fotos kann der Algorithmus eine Genauigkeit von mehreren Hundert Metern erzielen. Derzeit wird versucht zu beweisen, dass der Algorithmus anhand von zwei oder mehr Bildern den Standort mit einer Genauigkeit von mehreren Dutzend Metern bestimmen kann.

„Wir nehmen die Datenpunkte aus dem Bild und vergleichen sie mit den Datenpunkten auf einer Karte des Gebiets“, erklärte Liounis. „Das ist fast so, wie GPS Triangulation verwendet, aber anstatt mehrere Beobachter zu haben, die ein Objekt triangulieren, gibt es mehrere Beobachtungen von einem einzigen Beobachter, sodass wir herausfinden, wo sich die Sichtlinien kreuzen.“

Diese Art von Technologie könnte für die Monderkundung nützlich sein, wo man sich bei der Standortbestimmung kaum auf GPS-Signale verlassen kann.

Ein visueller Wahrnehmungsalgorithmus zur Erkennung von Kratern

Um optische Navigations- und visuelle Wahrnehmungsprozesse zu automatisieren, entwickelt Goddard-Praktikant Timothy Chase ein Programmiertool namens GAVIN (Goddard AI Verification and Integration) Tool Suit.

Dieses Tool hilft beim Erstellen von Deep-Learning-Modellen, einer Art maschinellem Lernalgorithmus, der darauf trainiert ist, Eingaben wie ein menschliches Gehirn zu verarbeiten. Neben der Entwicklung des Tools selbst entwickeln Chase und sein Team mithilfe von GAVIN einen Deep-Learning-Algorithmus, der Krater in schlecht beleuchteten Gebieten wie dem Mond identifizieren soll.

„Während wir GAVIN entwickeln, wollen wir es testen“, erklärte Chase. „Dieses Modell, das Krater in schwach beleuchteten Himmelskörpern erkennt, wird uns nicht nur dabei helfen, GAVIN zu verbessern, sondern es wird sich auch für Missionen wie Artemis als nützlich erweisen, bei der Astronauten zum ersten Mal die Südpolregion des Mondes erkunden werden – ein dunkles Gebiet mit großen Kratern.“

Während die NASA weiterhin bisher unerforschte Gebiete unseres Sonnensystems erforscht, könnten Technologien wie diese dazu beitragen, die Planetenerkundung zumindest ein wenig einfacher zu machen. Ob durch die Entwicklung detaillierter 3D-Karten neuer Welten, die Navigation mit Fotos oder den Aufbau von Deep-Learning-Algorithmen – die Arbeit dieser Teams könnte die einfache Navigation auf der Erde in neue Welten bringen.

ph-tech