Künstliche Intelligenz (KI) hat am Wochenende eine Vielzahl von Entwicklungen ausgelöst, darunter Rücktritte von Führungskräften, Streitigkeiten mit dem Pentagon, Durchbrüche in der Robotik, die Einführung von Unternehmensmodellen und neue Sicherheitswerkzeuge, die gemeinsam zeigen, dass die Branche auf nahezu allen Fronten beschleunigt.
Eine der auffälligsten Entwicklungen kam am 7. März, als Caitlin Kalinowski, Leiterin für Robotik und Verbraucherelektronik bei OpenAI, das Unternehmen verließ. Kalinowski äußerte Bedenken hinsichtlich OpenAIs Bestrebungen, einen Pentagon-Vertrag zur KI-Einsatz auf geheimen Regierungssystemen zu erhalten. Sie warnte angeblich, dass der Vorschlag unzureichende Schutzmaßnahmen im Hinblick auf inländische Überwachung und die Möglichkeit tödlicher autonomer Waffen aufweise.
OpenAI betonte erneut, dass das Unternehmen strenge „rote Linien“ in Bezug auf bestimmte militärische Anwendungen einhalte. Dennoch unterstreicht der Abgang die wachsenden Spannungen zwischen den KI-Ambitionen des Silicon Valley und den nationalen Sicherheitsinteressen Washingtons, insbesondere da Verteidigungsbehörden zunehmend den Einsatz fortschrittlicher KI-Systeme in sensiblen Operationen prüfen.
Diese Spannungen verschärften sich weiter, als das Pentagon am 5. März Anthropic offiziell als „Lieferkettenrisiko“ einstufte. Diese Einstufung schränkt Verteidigungsauftragnehmer darin ein, bestimmte Versionen des Claude-KI-Modells des Unternehmens in Regierungsprojekten zu verwenden. Das seltene Label, das an ein inländisches Technologieunternehmen vergeben wurde, zeigt, wie stark Meinungsverschiedenheiten über KI-Sicherheit und militärische Nutzung mit der nationalen Verteidigungsplanung kollidieren.
Inmitten dieser Streitigkeiten präsentierten Technologen und Politiker einen neuen Governance-Vorschlag, der die nächste Entwicklungsphase der künstlichen Intelligenz lenken soll. Am 7. März stellten der MIT-Physiker Max Tegmark und eine parteiübergreifende Gruppe von Forschern und Politikern die „Pro-Human Declaration“ vor, einen Rahmen, der sicherstellen soll, dass die KI-Entwicklung im Einklang mit menschlicher Aufsicht und bürgerlichen Freiheiten bleibt.
Die Erklärung umfasst fünf Kernprinzipien, darunter die Wahrung der letztendlichen Kontrolle des Menschen über fortschrittliche KI-Systeme, die Verhinderung einer übermäßigen Machtkonzentration bei wenigen Unternehmen, die Durchsetzung strenger Sicherheitstests, den Schutz der Bürgerrechte und die strikte Begrenzung selbstverbessernder Superintelligenz. Die Autoren sehen den Vorschlag als Fahrplan für Gesetzgeber, die sich mit zunehmend komplexen KI-Politikdebatten auseinandersetzen.
Während Politiker über Governance-Modelle debattierten, zeigten Forscher, wie schnell sich KI-gesteuerte Robotik entwickelt. Wissenschaftler der Northwestern University präsentierten eine neue Klasse von KI-entwickelten „Bein-Metamaschinen“, modulare Roboter, die ihre Formen anpassen und auch nach schweren physischen Schäden weiterarbeiten können.
Bildquelle: Northwestern University News.
Die in den Proceedings of the National Academy of Sciences veröffentlichte Forschung zeigt Roboter, die in verschiedenen Konfigurationen zusammengesteckt werden können und sich auf unebenem Terrain bewegen. Bei Tests wurden einige Roboter zerschnitten, konnten aber durch Umordnen ihrer verbleibenden Komponenten ihre Mobilität wiederherstellen — ein Verhalten, das in Katastrophengebieten, bei Erkundungsmissionen oder in anderen unvorhersehbaren Umgebungen nützlich sein könnte.
Im Softwarebereich brachte OpenAI am 5. März die GPT-5.4-Familie von Modellen auf den Markt, die speziell für professionelle und unternehmensbezogene Aufgaben entwickelt wurden. Die Veröffentlichung umfasst spezialisierte Pro- und Thinking-Varianten, die verbessertes Schlussfolgern, komplexe Programmieraufgaben und direkte Computersteuerung ermöglichen.
Bestimmte Versionen von GPT-5.4 unterstützen Kontextfenster mit bis zu einer Million Tokens, was es Nutzern erlaubt, riesige Dokumente oder Datensätze in einer einzigen Eingabe zu analysieren. OpenAI erklärte, dass die neuen Modelle darauf abzielen, Halluzinationen zu reduzieren und die Zuverlässigkeit bei Geschäftsanwendungen wie Datenanalyse, Engineering und automatisierten Arbeitsabläufen zu verbessern.
Künstliche Intelligenz erweist sich auch als nützlich für den Schutz vor Cyberangriffen. Anthropic kündigte am 6. März an, dass sein Claude-KI-Modell während einer zweiwöchigen Testkooperation mit Mozilla 22 Schwachstellen im Mozilla Firefox-Browser entdeckt hat.
Vierzehn dieser Probleme wurden als hochkritisch eingestuft. Die Ergebnisse zeigen, wie fortschrittliche KI-Systeme zunehmend bei der Schwachstellenentdeckung helfen, Sicherheits-Teams bei der schnellen Identifikation und Behebung von Fehlern unterstützen und so die Effizienz im Vergleich zu herkömmlichen manuellen Prüfungen deutlich steigern.
Die neueste Openclaw-Version 2026.3.7 wurde am Sonntag veröffentlicht und bietet eine umfangreiche Erweiterung der Flexibilität und Zuverlässigkeit für das Open-Source-Framework für autonome KI-Agenten, das auf nahezu jeder Plattform läuft.
Das wichtigste Feature ist das neue ContextEngine-Plugin-System mit vollständigen Lifecycle-Hooks (Bootstrap, Ingest, Compact, Subagent-Management usw.), das Entwicklern und der Community die Freiheit gibt, benutzerdefinierte Kontext-Management-Plugins zu erstellen — wie z.B. lossless-claw — die die Kernfunktionalität erweitern oder überschreiben, dabei aber vollständig rückwärtskompatibel bleiben.
Große Technologiefirmen bemühen sich ebenfalls, KI-Agenten in reale Branchen zu integrieren. Amazon Web Services stellte am 5. März Amazon Connect Health vor, eine HIPAA-konforme Plattform, die KI-Agenten in den Gesundheitsbetrieb integriert.
Die Plattform kann die Terminplanung für Patienten automatisieren, bei Dokumentation helfen, Versicherungsdetails überprüfen und administrative Aufgaben übernehmen, während sie sich in elektronische Gesundheitsakten-Systeme integriert. AWS erklärt, dass das System darauf abzielt, die administrativen Belastungen für Gesundheitsdienstleister zu verringern und die Koordination der Patienten zu verbessern.
OpenAI präsentierte ein weiteres Unternehmenswerkzeug mit der Einführung von Codex Security, einem KI-Agenten, der Software-Codebasen scannt, Schwachstellen erkennt, Ergebnisse validiert und Lösungsvorschläge macht. Ursprünglich als Forschungs-Vorschau veröffentlicht, zeigt dieses Tool, wie KI zunehmend in die Softwareprüfung und Sicherheitsentwicklung integriert wird.
Das Unternehmen stellte außerdem ein Beta-Add-in für ChatGPT in Microsoft Excel vor, das es Nutzern ermöglicht, direkt in Tabellen mit GPT-5.4 zu interagieren. Die Integration erlaubt es Analysten und Teams, Szenarien zu modellieren, Datensätze zu analysieren und Finanzprognosen zu erstellen, ohne Excel zu verlassen, und so KI noch stärker in den Alltag der Geschäftstätigkeit einzubetten.
Die neuesten KI-Entwicklungen der letzten 48 Stunden zeigen eine Branche, die auf mehreren Fronten gleichzeitig voranschreitet — von Robotik und Cybersicherheit über Gesundheitsautomatisierung bis hin zu geopolitischen Debatten über die Rolle der KI in der nationalen Verteidigung. Die Entwicklungen offenbaren auch einen wachsenden Kampf zwischen Innovation und Kontrolle, während Regierungen, Forscher und Technologieriesen versuchen, Leitplanken zu setzen, während die Technologie schneller voranschreitet, als es die Politik bequem nachholen kann.