Die NASA hat gerade enthüllte die erste Reihe von Bildern des James Webb Space Telescope, von einem beeindruckenden tiefen Feld von Galaxien bis hin zu einer minutiösen Charakterisierung der Atmosphäre eines fernen Exoplaneten. Aber wie bringt ein Raumschiff, das eine Million Meilen entfernt ist, Dutzende von Gigabyte an Daten zurück zur Erde?
Lassen Sie uns zunächst über die Bilder selbst sprechen. Dies sind nicht nur gewöhnliche JPEGs – und die Webb ist nicht nur eine gewöhnliche Kamera.
Wie jedes wissenschaftliche Instrument erfasst und sendet das Webb Unmengen von Rohdaten von seinen Instrumenten, zwei hochempfindlichen Nah- und Mittelinfrarotsensoren und einer Vielzahl von Zubehörteilen, die dies können Spezialisieren Sie sie für Spektroskopie, Koronographie und andere Aufgaben wie benötigt.
Nehmen wir als Beispiel eines der kürzlich veröffentlichten ersten Bilder mit direktem Vergleich.
Megapixel-Rennen
Das Hubble, das eher mit einem traditionellen Teleskop für sichtbares Licht vergleichbar ist, hat dieses Bild des Carina-Nebels im Jahr 2008 aufgenommen:
Das ist natürlich ein unglaubliches Bild. Aber das Hubble ist eher vergleichbar mit einem traditionellen Teleskop für sichtbares Licht, und was noch wichtiger ist, es wurde bereits 1990 auf den Markt gebracht. Die Technologie hat sich seitdem etwas verändert!
Hier ist die Webb-Version derselben Region:
Es ist für jeden Betrachter klar, dass die Webb-Version hat weit mehr Details, selbst wenn man sich diese kleinen Versionen ansieht. Die hauchdünne Textur des Nebels löst sich in komplizierte Wolkenformationen und Fetzen auf, und mehr Sterne und vermutlich Galaxien sind klar und sichtbar. (Lassen Sie uns hier jedoch anmerken, dass das Hubble-Bild seinen eigenen Reiz hat.)
Lassen Sie uns einfach einen Bereich vergrößern, um den aufgenommenen Detailgrad hervorzuheben, direkt links und oben von der Mitte:
Außergewöhnlich, oder? Aber dieses Detail hat seinen Preis: Daten!
Das Hubble-Bild hat etwa 23,5 Megapixel und wiegt unkomprimiert 32 Megabyte. Das Webb-Bild (wie nach der Bearbeitung verfügbar gemacht) ist 123 Megabyte und ungefähr 137 Megabyte groß. Das ist mehr als das Fünffache der Daten, aber selbst das erzählt nicht die ganze Geschichte. Die Spezifikationen des Webb sehen vor, dass Daten mit dem 25-fachen Durchsatz des Hubble zurückgesendet werden – nicht nur größere Bilder, sondern mehr davon … aus 3.000-mal weiter Entfernung.
Ferngespräch
Das Hubble befindet sich in einer erdnahen Umlaufbahn, etwa 340 Meilen über der Oberfläche. Das bedeutet, dass die Kommunikation damit wirklich ganz einfach ist – Ihr Telefon empfängt zuverlässig Signale von weit entfernten GPS-Satelliten, und es ist für einen Wissenschaftler der NASA ein Kinderspiel, Informationen zu einem Satelliten in einer so nahen Umlaufbahn hin und her zu senden.
JWST hingegen befindet sich am zweiten Lagrange-Punkt oder L2, etwa eine Million Meilen von der Erde entfernt, direkt von der Sonne entfernt. Das ist viermal so weit wie der Mond jemals kommt und in mancher Hinsicht eine viel schwierigere Angelegenheit. Hier ist eine Animation der NASA, die zeigt, wie diese Umlaufbahn aussieht:
Glücklicherweise ist diese Art der Kommunikation alles andere als beispiellos; Wir haben große Datenmengen von viel weiter entfernt gesendet und empfangen. Und wir wissen genau, wo sich das Webb und die Erde zu einem bestimmten Zeitpunkt befinden werden, also ist es zwar nicht trivial, aber es geht wirklich nur darum, die richtigen Werkzeuge für den Job auszuwählen und eine sehr sorgfältige Planung durchzuführen.
Von Anfang an war das Webb darauf ausgelegt, über das Ka-Band von Funkwellen im 25,9-Gigahertz-Bereich bis weit in die für andere Satellitenkommunikation verwendeten Bereiche zu übertragen. (Starlink verwendet zum Beispiel auch Ka und andere in diesem Gebiet.)
Diese Hauptfunkantenne kann etwa 28 Megabit pro Sekunde senden, was mit Breitbandgeschwindigkeiten zu Hause vergleichbar ist – wenn das Signal von Ihrem Router etwa fünf Sekunden braucht, um durch ein Millionen-Meilen-Vakuum zu Ihrem Laptop zu gelangen.
Das ergibt etwa 57 Gigabyte Downlink-Kapazität pro Tag. Es gibt eine zweite Antenne, die im unteren S-Band läuft – erstaunlicherweise dasselbe Band, das für Bluetooth, Wi-Fi und Garagentoröffner verwendet wird – reserviert für Dinge mit geringer Bandbreite wie Software-Updates, Telemetrie und Zustandsprüfungen. Wenn Sie an den Einzelheiten interessiert sind, IEEE Spectrum hat einen großartigen Artikel das geht näher darauf ein.
Dies ist jedoch nicht nur ein konstanter Strom, da sich die Erde natürlich dreht und andere Ereignisse dazwischenkommen können. Da es sich jedoch um größtenteils bekannte Variablen handelt, plant das Webb-Team die Kontaktzeiten vier oder fünf Monate im Voraus und leitet die Daten über das Deep Space Network weiter. Das Webb erfasste möglicherweise Daten und sendete sie noch am selben Tag, aber sowohl die Erfassung als auch die Übertragung wurden lange, lange vorher geplant.
Interessanterweise hat das Webb intern nur etwa 68 Gigabyte Speicherplatz, was die Leute nervös machen würde, wenn es 57 senden kann – aber es gibt mehr als genug Möglichkeiten, diese Daten auszulagern, damit es nie das gefürchtete „Laufwerk“ bekommt voll“-Meldung.
Aber was Sie am Ende sehen – selbst dieses große unkomprimierte 123-Megabyte-TIFF-Bild – ist nicht das, was der Satellit sieht. Tatsächlich nimmt es überhaupt keine Farbe wahr, wie wir es verstehen.
„Die Daten farbig durchscheinen lassen“
Die Daten, die in die Sensoren eingehen, liegen im Infrarotbereich vor, was jenseits des schmalen Farbbandes liegt, das Menschen sehen können. Wir verwenden natürlich viele Methoden, um außerhalb dieses Bandes zu sehen, zum Beispiel Röntgenstrahlen, die wir erfassen und so betrachten, dass wir sie sehen können, indem wir sie auf einen Film oder einen digitalen Sensor treffen lassen, der kalibriert ist, um sie zu erkennen. Dasselbe gilt für den Webb.
„Das Teleskop ist nicht wirklich eine Point-and-Shoot-Kamera. Es ist also nicht so, dass wir einfach ein Foto machen können und da haben wir es, richtig? Es ist ein wissenschaftliches Instrument. Es war also in erster Linie darauf ausgelegt, wissenschaftliche Ergebnisse zu erzielen.“ erklärte Joe DePasquale vom Space Telescope Science Institute in einem NASA-Podcast.
Was es erkennt, sind nicht wirklich Daten, die Menschen analysieren können, geschweige denn direkt wahrnehmen. Zum einen liegt der Dynamikbereich außerhalb der Charts – also der Größenunterschied zwischen den dunkelsten und hellsten Punkten. Es gibt im Grunde nichts Dunkleres als die unendliche Leere des Weltraums und nicht viel Helleres als eine explodierende Sonne. Wenn Sie jedoch ein Bild haben, das beides enthält und über einen Zeitraum von Stunden aufgenommen wurde, erhalten Sie enorme Unterschiede zwischen Dunkel und Hell in den Daten.
Nun, unsere Augen und unser Gehirn haben einen ziemlich guten Dynamikbereich, aber das bläst sie aus dem Wasser – und was noch wichtiger ist, es gibt keine wirkliche Möglichkeit, es zu zeigen.
„Es sieht im Grunde wie ein schwarzes Bild mit einigen weißen Flecken darin aus, weil es einen so großen Dynamikbereich gibt“, sagte DePasquale. „Wir müssen etwas tun, das sich Stretching the Data nennt, und das heißt, die Pixelwerte zu nehmen und sie im Grunde neu zu positionieren, damit Sie alle Details sehen können, die vorhanden sind.“
Bevor Sie in irgendeiner Weise Einwände erheben, seien Sie sich zunächst bewusst, dass im Grunde alle Bilder auf diese Weise erstellt werden – eine Auswahl des Spektrums wird ausgeschnitten und für die Betrachtung durch unser sehr leistungsfähiges, aber auch begrenztes visuelles System angepasst. Da wir im Infraroten nicht sehen können und es in diesen Frequenzen kein Äquivalent zu Rot, Blau und Grün gibt, müssen die Bildanalytiker komplizierte Arbeit leisten, die die objektive Nutzung der Daten mit dem subjektiven Verständnis von Wahrnehmung und Schönheit kombiniert. Farben können Wellenlängen in einer ähnlichen Reihenfolge entsprechen oder vielleicht aufgeteilt werden, um Bereiche logischer hervorzuheben, die ähnlich „aussehen“, aber eine völlig unterschiedliche Strahlung abgeben.
„Wir in der Imaging-Community in der Astrofotografie bezeichnen diesen Prozess gerne als ‚repräsentative Farbe‘, anstatt wie er früher genannt wurde, was immer noch viele Leute ‚Falschfarbenbilder‘ nennen. Ich mag den Begriff „Falschfarbe“ nicht, weil er diese Konnotation hat, dass wir es vortäuschen, oder es ist, wissen Sie, es ist nicht wirklich so, wie es aussieht; Die Daten sind die Daten. Wir gehen nicht hinein und tragen Farbe auf das Bild auf. Wir respektieren die Daten von Anfang bis Ende. Und wir lassen die Daten farbig durchscheinen.“
Wenn Sie sich das obige Bild ansehen, die beiden Ansichten des Nebels, bedenken Sie, dass sie mehr oder weniger zur gleichen Zeit aus dem gleichen Winkel aufgenommen wurden, aber mit unterschiedlichen Instrumenten, die unterschiedliche Segmente des IR-Spektrums erfassen. Obwohl letztendlich beide in RGB gezeigt werden müssen, können die unterschiedlichen Objekte und Merkmale, die bei der Untersuchung höherer Wellenlängen gefunden werden, durch diese Art von kreativer, aber wissenschaftlich strenger Farbzuordnungsmethode sichtbar gemacht werden.
Und wenn die Daten als Daten nützlicher sind als als visuelle Darstellung, gibt es natürlich noch abstraktere Sichtweisen.
Ein Bild eines weit entfernten Exoplaneten zeigt vielleicht nur einen Punkt, aber ein Spektrogramm zeigt aufschlussreiche Details seiner Atmosphäre, wie Sie in diesem Beispiel direkt oben sehen können.
Das Sammeln, Übertragen, Empfangen, Analysieren und Präsentieren der Daten von so etwas wie dem Webb ist eine komplexe Aufgabe, aber eine, der sich Hunderte von Forschern fröhlich und aufgeregt widmen, nachdem es in Betrieb genommen wurde. Erwarten Sie noch kreativere und faszinierendere Möglichkeiten, diese Informationen anzuzeigen – da JWST gerade erst seine Mission in einer Million Meilen Entfernung beginnt, können wir uns auf viel freuen.