Die Space-Computing-Ökosystemkette von NVIDIA ist auf den Markt gekommen: Space-1 „Vera Rubin“ bringt KI-Rechenleistung auf Rechenzentrumsniveau ins All

ChainNewsAbmedia

NVIDIA Space Computing wurde auf dem GTC 2026 vorgestellt. In den letzten Tagen hat NVIDIA selbst weitere Informationen veröffentlicht und versucht, die beschleunigte Rechenplattform von irdischen Rechenzentren in den Weltraum und auf Umlaufbahnen zu verlagern. Das Projekt konzentriert sich auf die KI-Infrastruktur, die für neue Weltraummissionen erforderlich ist, sodass Satelliten, Orbitalplattformen und Bodenstationen NVIDIA-GPUs und Edge-Computing-Module nutzen können, um Bilddaten, Sensordaten und georäumliche Informationen schneller zu verarbeiten.

(NVIDIA GTC 2026|NVIDIA schickt Space-1 Vera Rubin ins All und baut eine echte „Cloud-Computing“-Plattform)

NVIDIA erklärte, dass sich mit der Entwicklung der kommerziellen Raumfahrt die zukünftigen Aufgaben nicht mehr nur darin erschöpfen werden, Daten aus dem Weltraum zur Erde zu übertragen. Vielmehr wird es nötig sein, sie im Orbit in Echtzeit zu verarbeiten, zu analysieren und Entscheidungen zu treffen. Dazu gehören Reaktionen auf Naturkatastrophen, Umweltüberwachung, Klima- und Wetterprognosen, das Management von Infrastruktur sowie die Automatisierung von Weltraumoperationen.

Von der Erde in den Weltraum: NVIDIA will Satellitendaten-Latenz und Downlink-Kosten lösen

Traditionelle Satellitenmissionen müssen oft große Mengen Rohdaten zur Erde zurücksenden, wo sie dann von irdischen Rechenzentren analysiert werden. In Anwendungen wie Erdbeobachtung, Infrarotbildern, SAR-Radar und Erkennung von Funkfrequenzsignalen kann die Datenmenge jedoch bis zu mehrere Hundert Terabyte erreichen. Wenn man sich vollständig auf Downlink-Übertragungen verlässt, sind nicht nur die Kosten hoch, sondern auch die Reaktionszeit verlängert sich.

Das Ziel von NVIDIA Space Computing ist es, einen Teil der KI-Inferenz- und Daten-Fusion-Fähigkeiten direkt am Weltraum-Edge bereitzustellen. Durch Jetson Orin, IGX Thor sowie das neu vorgestellte Space-1 Vera Rubin-Modul können Orbitalplattformen Sensordaten im Orbit in Echtzeit verarbeiten, georäumliche Informationen generieren und die Abhängigkeit von der Bodenübertragung reduzieren.

Mit anderen Worten: Zukünftige Satelliten werden nicht nur fotografieren und Daten übertragen, sondern Daten im Orbit direkt „verstehen“ können.

Space-1 Vera Rubin: KI-Rechenleistung auf Rechenzentrumsniveau in den Weltraum bringen

Das am stärksten beachtete Produkt in diesem Zusammenhang ist das NVIDIA Space-1 Vera Rubin module. NVIDIA gibt an, dass das Modul für Weltraum-Inferenz und Orbital-„Data-Center“-Szenarien eine bis zu 25-fache Steigerung der KI-Rechenleistung pro GPU bereitstellen kann.

Space-1 Vera Rubin setzt auf eine integrierte CPU-GPU-Architektur und High-Bandwidth-Interconnects. Ziel ist, große Datenströme im Weltraum direkt zu verarbeiten, sodass sowohl „frontier model“ als auch „foundation model“ auf Orbitalplattformen ausgeführt werden können. Das bedeutet, dass zukünftige KI-Modelle nicht vollständig auf irdische Rechenzentren angewiesen sein müssen, sondern die Echtzeitanalyse direkt in Satelliten oder in orbitalen Rechenzentren durchführen können.

Das knüpft auch an die Richtung an, die NVIDIA-CEO Jensen Huang auf dem GTC vorgestellt hat: KI wird nicht nur in der Cloud und in irdischen Rechenzentren bleiben, sondern in Robotik, Fabriken, Fahrzeuge und sogar in Weltraum-Infrastrukturen Einzug halten.

Jetson Orin, IGX Thor: Satelliten mit Echtzeit-Edge-KI ausstatten

Neben Space-1 Vera Rubin führt NVIDIA auch bestehende Edge-KI-Plattformen in Weltraumanwendungen ein.

Jetson Orin steht für kleine Bauform, geringe Leistungsaufnahme und effiziente KI-Inferenz. Es eignet sich für Satelliten, Orbital-Wartungsfahrzeuge und Weltraum-Sensorplattformen. Es kann visuelle Daten, Navigations- und Sensordaten direkt auf dem Weltraumfahrzeug verarbeiten, wodurch die Latenz sinkt und Bandbreite gespart wird.

IGX Thor ist hingegen für eine höhere Zuverlässigkeit bei missionskritischen Edge-Plattformen positioniert. Es unterstützt Echtzeit-KI-Verarbeitung, funktionale Sicherheit, sicheres Booten und autonome Abläufe. Für Weltraummissionen, die unter strengen Umgebungsbedingungen arbeiten müssen, können solche Plattformen den Raumfahrzeugen zusätzlich zu den Bodensteuerungs-Latenzen ein höheres Maß an autonomer Entscheidungsfähigkeit verleihen.

NVIDIAs Space Computing richtet sich nicht nur an den Weltraum-Teil, sondern umfasst auch die Datenverarbeitung von Bodenstationen. NVIDIA erklärt, dass die RTX PRO 6000 Blackwell Server Edition GPU für High-Throughput-Datenverarbeitung auf der Bodenebene genutzt werden kann, darunter Satellitenbild-„Mosaicking“, Orthorektifizierung, „atmospheric compensation“ sowie groß angelegte Analysen georäumlicher Bilder. Im Vergleich zu herkömmlichen CPU-Batch-Verarbeitungssystemen behauptet NVIDIA, dass es zu einer Leistungssteigerung von bis zu 100-mal kommen kann.

Das bedeutet, dass Space Computing keine einzelne Chip-Lösung ist, sondern ein vollständiges KI-Computing-Framework von der Satellitenseite über das Orbital-Data-Center bis hin zur Bodenstation.

Die NVIDIA-Space-Computing-Ökosystemkette kommt ans Licht: Axiom Space, Planet Labs sind dabei

NVIDIA teilte mit, dass Raumfahrtunternehmen wie AetherFlux, Axiom Space, Kepler Communications, Planet Labs, Sophia Space und Starcloud bereits NVIDIA-Accelerated-Computing-Plattformen verwenden, um Orbital- und Bodenaufgaben zu unterstützen.

Im Ökosystem nennt NVIDIA außerdem mehrere Hardware-Partner, darunter Aethero, Aitech, EDGX, Eizo, WOLF und andere. Diese bringen robuste Edge-Computing-Geräte im Weltraum- und Verteidigungsstandard heraus, die mit Jetson Orin oder Jetson Thor ausgestattet sind. Die Einsatzbereiche reichen von Low-Earth-Orbit-Missionen, CubeSat, Kleinsatelliten, unbemannten Systemen, Multi-Sensor-Fusion bis hin zu Echtzeit-ISR-Aufgaben.

Dabei setzt Aetheros NxA Edge Computing Module auf NVIDIA Jetson AGX Thor oder Orin. Es soll modulare Mehrfach-Redundanz unterstützen und sogar verteilte Weltraum-Computing-Deployments mit Kubernetes-enabled ermöglichen. Positioniert ist es als Edge-Knoten, der sehr nah an Edge-KI-Computing in Orbitalmissionen heranreicht.

Aitech bringt S-A2300 COTS AI supercomputer auf den Markt und setzt dabei auf NVIDIA Jetson Orin. Im Fokus stehen Low-Earth-Orbit-(LEO)-Missionen; es führt kommerzielle Fertigprodukte (COTS) in Anwendungen für Weltraum-KI-Supercomputer ein.

EDGXs Sterna ist ein bereits flugerprobter Edge-Computer mit NVIDIA Jetson Orin NX. Er richtet sich an kleine Satellitenmissionen von CubeSat bis micro-sat und betont, in Fünfjahres-LEO-„sun-synchronous“-Orbit-Missionen eine führende Rechenleistungseffizienz pro Wattstunde zu liefern.

Eizos Condor Thor 3U VPX Series ist wiederum ein robustes Single-Board-Computer-Modell, das NVIDIA Jetson Thor nutzt. Zu den Einsatzszenarien zählen Echtzeit-ISR, unbemannte Systeme sowie Multi-Sensor-Fusion. Es ist eher auf Verteidigung, Luft- und Raumfahrt und missionskritische Umgebungen ausgerichtet.

WOLFs WOLF-14T5 ist ein 3U-VPX-robuster Single-Board-Computer, der mit NVIDIA Jetson AGX Orin und ConnectX-7 ausgestattet ist. Er bietet leistungsstarkes KI-Processing und bis zu 100GbE-Netzwerkfähigkeiten. Ziel sind eingebettete Missionen mit hoher Sicherheit und hohem Daten-Output.

Dieser Artikel „輝達 Space Computing 生態鏈出爐,Space-1 Vera Rubin 把資料中心級 AI 算力送上太空“ erschien zuerst auf „鏈新聞 ABMedia“.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Der Finanzsekretär von Hongkong, Paul Chan, hebt die drei zentralen Vorteile der Greater Bay Area hervor: KI, Fertigung und Finanzen

Laut ChainCatcher hat der Finanzsekretär von Hongkong, Paul Chan, kürzlich eine schriftliche Erklärung veröffentlicht, in der er die drei zentralen Vorteile der Greater Bay Area darlegt: erstklassige KI-Forschung, vollständige High-End-Fertigungs-Ketten und ein internationaler Finanzstandort. Chan erklärte, dass diese Kombination aus „KI + Fertigung + Finanzen“ Hongkong während des Zeitraums des 15. Fünfjahresplans für zwei zentrale Aufgaben positioniert: die industrielle Koordination und das re

GateNews2M her

Anthropic im Code-Modus: Streit um MCP vs. CLI — Tools für Runtime belegt, Tokens von 150.000 auf 2.000 gedrückt

2025 年整年 AI 工程社群在「MCP vs CLI」哪個更適合 Agent 工具呼叫的問題上爭論不休、Anthropic 2025 年 11 月發表的「Code execution with MCP」論文從第一原則重新定義了問題。akshaypachaar 5/10 整理 thread說明:問題從來不在協議本身、而在「session 開始時把所有工具描述塞進 context」的舊習慣;Anthropic 的解法是讓模型寫程式碼呼叫工具、運行時負責管理工具細節。新模式被稱為「Code Mode」。 舊模式的問題:150K tokens 中模型大部分用不到 舊 MCP 模式的浪費結構: Playwright MCP:13.7K tokens(一次塞滿) Chrome DevTools MCP:18K tokens 5 個 server 設定:尚未開始工作就燒掉 55K tokens 單一 workflow 完整執行:可膨脹到 150K tokens 模型實際用到的:絕大部分都用不上 批評者主張改用 CLI、但 CLI 在多租戶 app 容易出錯、缺乏 typed contract、a

ChainNewsAbmedia2Std her

ByteDance plant, die Ausgaben für KI-Infrastruktur in diesem Jahr um 25% auf 200 Milliarden Yuan zu erhöhen

Laut ChainCatcher unter Berufung auf Golden Data plant ByteDance, die Ausgaben für KI-Infrastruktur in diesem Jahr um 25% auf 200 Milliarden Yuan zu erhöhen, angetrieben durch steigende Kosten für Speicherchips und eine beschleunigte Entwicklung künstlicher Intelligenz.

GateNews3Std her

Die Unternehmens-AI-Plattform Pit schließt die $16M -Series-Finanzierung, angeführt von a16z

Laut Odaily hat die Enterprise-AI-Plattform Pit die Fertigstellung einer Finanzierungsrunde über 16 Millionen US-Dollar bekanntgegeben, die von a16z angeführt wurde; beteiligt waren Lakestar sowie Führungskräfte von OpenAI, Anthropic, Google, Deel und Revolut. Pit positioniert sich als „AI product team as a service“ und soll traditionelle Tabellenkalkulationen sowie starre SaaS-Systeme ersetzen.

GateNews3Std her

Google testet die Einstellung mit Prüfungen, bei denen Ingenieure KI-Tools nutzen dürfen

Laut The Chosun Daily testet Google Einstellungstests, mit denen US-amerikanische Software-Engineer-Kandidaten KI-Tools in ausgewählten Einstiegs- und Mid-Level-Positionen nutzen können. Der Versuch umfasst Aufgaben zum Code-Verständnis, bei denen die Bewerber bestehenden Code durchsehen, Bugs beheben und die Performance verbessern. Die Interviewer werden bewerten, wie die Kandidaten KI anleiten, deren Ergebnisse prüfen, die Resultate überarbeiten und Code debuggen, statt nur ihre Fähigkeit zu b

GateNews5Std her

OpenAI stellt die Fine-Tuning-API mit sofortiger Wirkung ein. Bestehende Nutzer können sie bis zum 6. Januar 2027 weiterhin nutzen.

Laut der offiziellen Ankündigung von OpenAI, die von Beating überwacht wird, stellt das Unternehmen seine Self-Serve Fine-Tuning-API für Entwickler mit sofortiger Wirkung ein. Neue Nutzer können keine Fine-Tuning-Aufgaben mehr erstellen, während bestehende aktive Nutzer auf den Dienst bis zum 6. Januar 2027 zugreifen können. Die bereitgestellten Fine-Tuned-Modelle werden ihre Inferenzdienste an den Lebenszyklus ihrer Basismodelle gebunden haben und enden, wenn das Basismodell außer Dienst gestel

GateNews6Std her
Kommentieren
0/400
Keine Kommentare