Das nächste Space Race: Tech-Konzerne wollen KI-Fabriken im Weltraum bauen
Der enorme Energiebedarf moderner KI-Modelle treibt Tech-Giganten gedanklich ins All. Die Hürden sind jedoch immens – von der Kühlung bis zur Strahlung. Doch die Unternehmen denken in Jahrzehnten, nicht in Jahren.
Die großen Technologieunternehmen suchen nach Wegen, den massiven Energiebedarf für das Training und den Betrieb künstlicher Intelligenz zu decken. Laut einem Bericht des Wall Street Journal arbeiten sowohl Elon Musks SpaceX als auch Jeff Bezos’ Blue Origin an Konzepten für orbitale Datenzentren. Bezos‘ Blue Origin soll bereits seit über einem Jahr ein Team auf dieses Thema angesetzt haben.
Die Logik dahinter ist simpel: Im Weltraum scheint die Sonne fast ununterbrochen. Solarmodule erhalten in bestimmten Umlaufbahnen bis zu achtmal mehr Energie pro Jahr als an einem Standort mittlerer Breite auf der Erde. Zudem entfallen Konflikte um Landnutzung und Wasserverbrauch auf dem Boden.
SpaceX plant, eine verbesserte Version seiner Starlink-Satelliten mit KI-Rechenkapazitäten auszustatten. Diese sollen mit der Großrakete Starship in den Orbit befördert werden. Musk behauptete kürzlich auf X, dass Starship jährlich solarbetriebene KI-Satelliten mit einer Gesamtleistung von bis zu 500 Gigawatt ins All bringen könnte. Das Vorhaben ist Teil einer Verkaufsstrategie für Unternehmensanteile, die SpaceX mit 800 Milliarden US-Dollar bewerten könnte.
Diese Zahl wirkt gigantisch, wenn man sie in Relation zu aktuellen technischen Einschätzungen setzt: Google-Manager Travis Beals schätzt, dass man allein um die Rechenleistung eines einzigen modernen 1-Gigawatt-Rechenzentrums auf der Erde zu ersetzen, einen Schwarm von etwa 10.000 Satelliten bräuchte. 300 bis 500 Gigawatt würde in diesem Modell eine Flotte von Millionen solcher Hochleistungs-Satelliten erfordern – ein logistischer und finanzieller Kraftakt, der weit über heutige Dimensionen hinausgeht.
Auch bei Blue Origin beschäftigt sich ein Team angeblich seit über einem Jahr mit der notwendigen Technologie. Gründer Jeff Bezos sieht den Vorteil vor allem in der unbegrenzten Verfügbarkeit von Solarenergie, rechnet aber damit, dass es noch bis zu 20 Jahre dauern wird, bis orbitale Datenzentren kostengünstiger sind als irdische Anlagen.
Google verfolgt in Kooperation mit dem Satellitenbetreiber Planet Labs bereits einen konkreten Zeitplan. Bereits Anfang 2027 sollen im Rahmen des Projekts "Suncatcher" zwei Testsatelliten starten, die mit Googles Tensor Processing Units (TPUs) bestückt sind. Beals bezeichnete das Projekt als "Moonshot".
10.000 Satelliten für ein Gigawatt
Googles Ansatz unterscheidet sich von dem der monolithischen Raumstationen. Anstelle riesiger Einzelstrukturen schlagen die Forscher Schwärme, also Konstellationen, aus kleineren Satelliten vor. Um die Rechenkapazität eines irdischen Gigawatt-Rechenzentrums nachzubilden, wären laut Beals 10.000 Satelliten der 100-Kilowatt-Klasse notwendig. Dies entspricht mutmaßlich der Leistung, die die neuen Starlinkv3-Satelliten von SpaceX erzeugen können.
Das Systemdesign sieht vor, dass diese Satelliten in einer sogenannten Dämmerungs-Umlaufbahn (Dawn-Dusk Orbit) fliegen, um die Sonneneinstrahlung zu maximieren. Laut dem Google-Paper erhalten Solarmodule in der angestrebten Umlaufbahn rund achtmal mehr Energie pro Jahr als an einem durchschnittlichen Standort auf der Erde. Die größte Herausforderung ist dabei nicht die Energiegewinnung, sondern die Kommunikation zwischen den Recheneinheiten.
In terrestrischen Rechenzentren sind KI-Chips (wie Googles TPUs) über Glasfaserkabel mit extrem hoher Bandbreite verbunden. Im All müssen Laser diese Aufgabe übernehmen. Das Google-Team schlägt Free-Space Optics (FSO) vor. Um die benötigten Datenraten von mehreren Terabit pro Sekunde zu erreichen, müssen die Satelliten extrem eng beieinander fliegen.
Das Paper beschreibt Formationen, bei denen Satelliten nur wenige hundert Meter voneinander entfernt sind. Ein vorgeschlagenes Cluster besteht aus 81 Satelliten in einem Radius von einem Kilometer. Diese Nähe ermöglicht es, handelsübliche optische Transceiver zu nutzen, da die Signalstärke mit der Distanz quadratisch abnimmt. Bei kurzen Distanzen können zudem mehrere Laser-Links parallel (räumliches Multiplexing) genutzt werden, um die Bandbreite weiter zu steigern.
Hardware im Protonenbeschuss
Ein weiteres Kernproblem ist die aggressive Umgebung. Elektronik im All ist konstanter Strahlung ausgesetzt, die zu Fehlfunktionen oder der Zerstörung der Chips führen kann. Um die Machbarkeit zu prüfen, unterzogen die Forscher Googles KI-Chips der 6. Generation, die "Trillium" TPUs, einem Härtetest.
In einem Zyklotron wurden die Chips mit 67 MeV Protonenstrahlen beschossen, um fünf Jahre im niedrigen Erdorbit zu simulieren. Das Ergebnis: Die Hardware überlebte die Gesamtdosis ohne permanente Ausfälle. Allerdings traten sogenannte „Single Event Effects“ auf – spontane Bit-Flips im Speicher.
Während diese Fehlerquote für die Ausführung fertiger KI-Modelle (Inferenz) laut den Forschern akzeptabel ist, stellt sie für das Training neuer Modelle ein Risiko dar. Ein unbemerkter Rechenfehler könnte ein tagelanges Training korrumpieren. Hier wären robuste Fehlerkorrekturmechanismen notwendig.
Die Kostenfrage: Warten auf das Starship
Die technische Machbarkeit steht und fällt vor allem mit den Kosten für den Transport ins All. Laut der Analyse im Google-Paper müsste der Preis für den Transport in den niedrigen Erdorbit (LEO) auf etwa 200 US-Dollar pro Kilogramm fallen, damit das Konzept wirtschaftlich mit irdischen Rechenzentren konkurrieren kann.
Hier schließt sich der Kreis zu SpaceX. Das Forschungsteam setzt große Hoffnungen in das Starship. Sollte SpaceX das Ziel einer vollständigen und schnellen Wiederverwendbarkeit erreichen, könnten die Startkosten drastisch sinken. Bei einer 100-fachen Wiederverwendbarkeit der Komponenten prognostiziert das Paper theoretische interne Kosten für SpaceX von unter 15 Dollar pro Kilogramm. Selbst mit hohen Gewinnmargen für SpaceX wäre ein Kundenpreis von unter 200 Dollar/kg bis Mitte der 2030er Jahre denkbar.
Das ungelöste Hitzeproblem
Neben Strahlung und Kosten bleibt die Thermodynamik der größte Feind von Hochleistungselektronik im All. Im Vakuum fehlt Luft zur Konvektionskühlung; Wärme kann nur durch Strahlung abgegeben werden. Das Paper beschreibt das Wärmemanagement daher als eine der kritischsten Optimierungsaufgaben für den Betrieb leistungsdichter TPUs im Vakuum.
Google setzt dabei primär auf ein passives System aus Wärmerohren (Heatpipes) und dedizierten Radiatorflächen, um die Zuverlässigkeit zu maximieren und mechanische Fehlerquellen aktiver Pumpen zu vermeiden. Eine besondere Herausforderung stellt die geplante enge Flugformation der Satelliten-Cluster dar: Die Bahnberechnungen müssen sicherstellen, dass sich die Satelliten nicht gegenseitig verdecken, da dies nicht nur die Energiegewinnung, sondern explizit auch die Abstrahlung der Abwärme („rejected heat“) im Infrarotbereich auf den Nachbarsatelliten blockieren würde.
Hinsichtlich der Materialien betont Google die Notwendigkeit fortschrittlicher thermischer Schnittstellenmaterialien (Thermal Interface Materials), um die enorme Hitzelast effizient von den Chips auf die Radiatoren zu übertragen. Während das aktuelle Design noch von diskreten Komponenten für Rechenlast, Satellitenbus und Radiatoren ausgeht, skizzieren die Forscher für die Zukunft eine Evolution hin zu hochintegrierten Designs. Ähnlich wie bei Smartphones könnten künftige Systeme Compute-Einheiten, Stromversorgung und Radiatoren in einer einzigen Struktur verschmelzen, um Masse zu sparen.
Weltraum-Rechenzentren jenseits von Satelliten
Die Idee, Rechenleistung ins Weltall zu verlagern ist nicht neu. Das Paper "Space-Based Data Centers and Cooling" aus dem Jahre 2023 hat sogar noch radikalere Ansätze in Betracht gezogen, die eher an Science-Fiction erinnern.
In der im Journal Symmetry veröffentlichten Studie untersuchen die Autoren die theoretische Möglichkeit, Wasser von Asteroiden zur Kühlung von Weltraum-Rechenzentren zu nutzen. Die Idee basiert darauf, dass bestimmte Asteroiden signifikante Mengen an Wasser enthalten. Private Raumfahrzeuge könnten diese Asteroiden ansteuern, Wasser abbauen und dieses als Kühlmittel für Server-Habitate - also komplette Rechenzentren, keine Satellitenschwärme - nutzen.
Die Studie identifizierte mittels Datenbank-Analysen rund 20 Asteroiden, die sowohl wasserreich als auch energetisch günstig von der Erde aus erreichbar wären (weniger als 0,26 Astronomische Einheiten Distanz). Ein solcher Ansatz würde die Abhängigkeit von komplexen Radiatorsystemen verringern, setzt aber eine noch nicht existente Bergbau-Infrastruktur im All voraus.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.