Der weltweite Datensatz erfasst die Erde bis ins feinste Detail

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Ein globaler Open-Source-Datensatz mit hochauflösenden Bildern der Erde – der umfangreichste und detaillierteste seiner Art – wurde von Experten unter der Leitung des UCL mit Daten der Europäischen Weltraumorganisation (ESA) entwickelt.

Der kostenlose Datensatz WorldStrat wird auf der Konferenz NeurIPS 2022 in New Orleans vorgestellt. Es umfasst fast 10.000 km² kostenlose Satellitenbilder, die jede Art von Standort, Stadtgebiet und Landnutzung zeigen, von Landwirtschaft, Grasland und Wäldern bis hin zu Städten jeder Größe und polaren Eiskappen.

Der Datensatz umfasst Orte im globalen Süden und solche, die humanitäre Hilfe benötigen, die in Satellitenbildern oft unterrepräsentiert sind, da diese normalerweise zu kommerziellen Zwecken gesammelt werden und daher überproportional wohlhabendere Regionen enthalten.

Die Wissenschaftler sagen, dass die Sammlung eine weltweite Analyse des Geländes ermöglicht, um globale Herausforderungen wie die Reaktion auf Naturkatastrophen und vom Menschen verursachte Katastrophen, die Verwaltung natürlicher Ressourcen und die Stadtplanung anzugehen.

Die Arbeit an WorldStrat begann im Jahr 2021 und wurde seit dem Start im Juni 2022 über 3.000 Mal heruntergeladen.

Projektleiter Dr. Julien Cornebise (UCL Computer Science) sagte: „Die Kombination aus hochauflösenden kommerziellen Bildern und maschinellem Lernen hat ein enormes Potenzial, um planetenweite Analysen zu ermöglichen, die dazu beitragen könnten, alle Arten von globalen Herausforderungen anzugehen – das Problem ist diese kommerzielle Daten werden oft hinter einer Paywall gesperrt.“

„Das TPM-Programm der ESA hat unser Projekt ermöglicht, indem es freien Zugang zu Daten ermöglichte, die normalerweise sehr teuer wären.“

Das Team verwendete Daten der Airbus-Satelliten SPOT 6 und SPOT 7, die von der ESA in Auftrag gegeben und 2012 bzw. 2014 gestartet wurden. Die Satelliten können Bilder mit Auflösungen von bis zu 1,5 m pro Pixel liefern, was bedeutet, dass jedes Pixel eine Fläche von 1,5 x 1,5 m auf dem Boden darstellt.

Die Wissenschaftler verwendeten rund 4.000 hochdetaillierte Bilder der SPOT-Satelliten. Auch wenn diese Bilder eine hohe (räumliche) Auflösung haben, haben sie eine geringe zeitliche Auflösung, was in diesem Zusammenhang bedeutet, dass nicht jeder Satellit jeden Ort regelmäßig besucht und neu einfängt. Denn die von den Satelliten aufgenommenen Bilder sollten ursprünglich eher für bestimmte kommerzielle Anwendungen als für längerfristige Analysen verwendet werden.

Um dem entgegenzuwirken, verwendete das Team auch frei verfügbare Bilder mit geringerer Auflösung des Copernicus Sentinel-2-Satelliten. Diese haben eine höhere zeitliche Auflösung, was bedeutet, dass sie alle fünf Tage zu regelmäßigeren Zeitpunkten erfasst wurden. Sie haben jedes SPOT-Bild mit 16 Bildern von Copernicus Sentinel-2 abgeglichen, wobei insgesamt etwa 64.000 verwendet wurden.

Die Forscher entwickelten den Datensatz, um auch die Entwicklung von maschinellen Lernanwendungen zu unterstützen, um ihn zu erweitern und zu verbessern, beispielsweise um die Bildauflösung weiter zu verbessern. Um die Entwicklung weiterer Anwendungen zu ermöglichen, haben die Wissenschaftler eine Toolbox für künstliche Intelligenz sowie den vollständigen Quellcode entwickelt, der es Entwicklern ermöglicht, die Arbeit zu reproduzieren, zu erweitern und zu transformieren.

Dr. Cornebise fuhr fort: „Tausende von Datennutzern aus der ganzen Welt haben WorldStrat bereits heruntergeladen – und wir freuen uns darauf, zu sehen, wie sie es mithilfe von Techniken des maschinellen Lernens erweitern und verbessern.“

Eine Vorabversion der Studie ist verfügbar unter arXiv.

Mehr Informationen:
Julien Cornebise et al., Open High-Resolution Satellite Imagery: The WorldStrat Dataset—With Application to Super-Resolution, arXiv (2022). DOI: 10.48550/arxiv.2207.06418

GitHub-Datensatz: worldstrat.github.io/

Zeitschrifteninformationen:
arXiv

Zur Verfügung gestellt vom University College London

ph-tech