OpenAI gab am 3. Mai die Ausweitung der Zusammenarbeit mit Amazon Web Services (AWS) bekannt. Die OpenAI-Modelle und Codex-Codieragenten sollen für AWS-Kunden über Amazon Bedrock bereitgestellt werden. Laut CNBC-Bericht ist diese Erweiterung der nächste entscheidende Schritt nach dem Ende der Cloud-Exklusivvereinbarung zwischen OpenAI und Microsoft (Anfang Ende April): OpenAI wechselt von „Microsoft-Cloud als einzigem Einsatzort“ zu einer Multi-Cloud-Deployment-Strategie. AWS hat derweil die erste Integration der OpenAI-Produkte auf der Bedrock-Plattform bereits abgeschlossen.
Hintergrund: OpenAI-Microsoft-Exklusivvertrag endet, IP-Lizenz läuft bis 2032
Ende April einigten sich OpenAI und Microsoft auf eine neue Vereinbarung: Die bisherige Struktur „Microsoft hat exklusiven Zugriff auf OpenAI-Produkte und IP“ endet, und OpenAI erhält das Recht, alle Produkte auf jeder Cloud zu betreiben. Microsoft behält zwar die Lizenzierung der geistigen Eigentumsrechte an OpenAI-Modellen und -Produkten bis 2032, jedoch wird sie nicht mehr exklusiv. Microsoft muss nicht länger eine Umsatzaufteilung an OpenAI zahlen, aber OpenAI wird weiterhin eine Umsatzaufteilung an Microsoft zahlen, bis 2030 (mit einer Obergrenze).
Diese Anpassung entkoppelt OpenAI faktisch von einer „einzigen Abhängigkeit von Microsoft“ und ebnet den Weg für eine tiefere Zusammenarbeit mit anderen Cloud-Anbietern. AWS ist der erste Wettbewerber, der davon profitiert, und die Bedrock-Plattform wird damit zum konkreten Einstiegspunkt für die Multi-Cloud-Verteilung von OpenAI-Modellen.
AWS-Integration: OpenAI-Modelle + Codex-Codieragent auf Bedrock verfügbar
AWS-Kunden können die OpenAI-Modelle und Codex-Codieragenten (agentic coding-Werkzeuge) jetzt direkt über Amazon Bedrock abrufen. Bedrock ist die Plattform für KI-Modellaggregationen von AWS, die bereits mehrere Basismodelle integriert hatte, darunter Anthropic Claude und Meta Llama. Mit der Hinzunahme von OpenAI deckt Bedrock die wichtigsten aktuellen Modelllinien nun vollständig online ab.
Ein weiterer zentraler Punkt der Zusammenarbeit ist die im Februar zwischen OpenAI und Amazon erzielte Investitionsvereinbarung über 50 Milliarden US-Dollar. OpenAI wird die auf AWS selbst entwickelte Trainium-Chips mit 2 GW Rechenleistung nutzen, um KI-Modelle zu trainieren; zudem vereinbarten beide, gemeinsam kundenspezifische Modelle für das Amazon-Engineering-Team zu entwickeln, die für Amazons Endkundenprodukte eingesetzt werden. Das Ausgabenversprechen von OpenAI für AWS wird um 100 Milliarden US-Dollar erhöht.
Weitere Beobachtungen: Fortschritt der Multi-Cloud, Wandel der kommerziellen Beziehung zu Microsoft
Der nächste Beobachtungspunkt ist die konkrete Verteilung des Multi-Cloud-Deployments von OpenAI: Wie viel Prozent entfallen auf AWS und wie viel auf Microsofts Azure, und ob weitere Anbieter wie Google Cloud oder Oracle hinzukommen. Ein weiterer Punkt ist die langfristige Positionierung der OpenAI-Deployments auf Microsoft Azure unter der neuen Vereinbarung: Wenn die Umsatzaufteilung an Microsoft deutlich sinkt, könnte sich die Priorität von Azure für OpenAI-Dienste anpassen.
Dieser Artikel „Amazon und OpenAI erweitern Zusammenarbeit: Modelle auf Bedrock gelistet, Microsoft-Exklusivität endet“ erschien zuerst auf Kettennews ABMedia.
Verwandte Artikel
Samsung Electro-Mechanics legt wegen Nachfrage nach KI zu, KB Securities erhöht am 4. Mai das Kursziel
Meta steigert das Engagement auf Facebook und Instagram im 1. Quartal des Geschäftsjahres 2026; die Zeit, die mit Reels verbracht wird, steigt um 10%
Neueste Studie der Harvard Medical School: KI trifft in der Notaufnahme bei Diagnose-Entscheidungen bessere Entscheidungen als menschliche Ärzte
Die 10 größten Konglomerate Südkoreas gewinnen 65% auf 2,6 Billionen US-Dollar, während KI-Chip-Aktien anziehen
KI-Investitionen trieben 75 % des Wachstums des US-BIP im 1. Quartal an, so sagt ein Berater des Weißen Hauses
KI-Talente verdienen in Singapur bis zu 25 % mehr, wie ein NodeFlair-Bericht zeigt