Pentagon konfrontiert Anthropic! Vollständige Freigabe von Claude für militärische Nutzung „sonst Vertragskündigung und Rauswurf“

動區BlockTempo

Laut einem exklusiven Bericht von Axios erwägt das Pentagon, die Zusammenarbeit mit Anthropic zu beenden, da dieses KI-Unternehmen darauf besteht, Einschränkungen bei der Nutzung des Claude-Modells für militärische Zwecke durchzusetzen und sich weigert, die beiden Bereiche groß angelegter Überwachung und vollständig autonomer Waffen zu öffnen. Es ist bemerkenswert, dass OpenAI, Google und xAI bereits alle die „alle rechtmäßigen Zwecke“ umfassende Klausel des Pentagon akzeptiert haben, wodurch Anthropic zum einzigen der vier großen KI-Labore wird, das sich weigert, diese Bedingung zu erfüllen.
(Vorheriger Kontext: Elon Musks neuer Plan „Mondbasis Alpha“: Aufbau einer KI-Superfabrik auf dem Mond, die mit einem Riesenraketenantrieb in das Sonnensystem geschossen werden soll)
(Hintergrund: KI-Angst vor Massenarbeitslosigkeit! Microsoft-Manager warnen: Die meisten weißen-collar-Arbeitskräfte werden in den nächsten 12-18 Monaten durch Automatisierung ersetzt)

Inhaltsverzeichnis

  • Anthropics zwei rote Linien: Verbot von groß angelegter Überwachung, Verbot autonomer Waffen
  • Maduro-Überfall löst Eskalation aus
  • Die anderen drei Giganten „haben keine Einwände“

Laut einem hochrangigen Regierungsbeamten, der Axios zitiert, drängt das Pentagon die vier führenden KI-Labore (OpenAI, Google, xAI, Anthropic), die militärische Nutzung ihrer Werkzeuge für „alle rechtmäßigen Zwecke“ zu erlauben, einschließlich Waffentests, Geheimdienstsammlung und Einsätze auf dem Schlachtfeld.

Diese Forderung basiert auf dem „Strategischen Memorandum zur Künstlichen Intelligenz des Verteidigungsministeriums“ vom 9. Januar dieses Jahres. Das Dokument weist klar an, innerhalb von 180 Tagen die Klausel „alle rechtmäßigen Zwecke“ in alle KI-Beschaffungskontrakte aufzunehmen. Das bedeutet, dass die militärische Nutzung von KI künftig den Standards für den Einsatz von Gewalt gleichgestellt wird, ohne dass zusätzliche „bedeutungsvolle menschliche Kontrolle“ erforderlich ist.

Nach monatelangen harten Verhandlungen hat Anthropic diese Klauseln bisher nicht akzeptiert, was das Pentagon zunehmend frustriert. Ein Beamter erklärt:

Alles ist möglich, einschließlich einer Reduzierung der Zusammenarbeit mit Anthropic oder sogar einer vollständigen Beendigung. Aber wenn wir das für richtig halten, müssen wir geeignete Alternativen finden.

Anthropics zwei rote Linien: Verbot groß angelegter Überwachung, Verbot autonomer Waffen

Angesichts des Drucks des Pentagons besteht Anthropic auf zwei unüberwindbaren Grenzen:

  • Verbot der groß angelegten Überwachung amerikanischer Bürger
  • Verbot vollständig autonomer Waffensysteme (also automatisierte tödliche Waffen ohne menschliches Eingreifen)

Der hochrangige Beamte gibt zu, dass es bei der Abgrenzung, welche Einsatzszenarien in diese Verbotszonen fallen und welche nicht, „erhebliche Grauzonen“ gebe. Wenn das Pentagon jeden einzelnen konkreten Einsatzfall mit Anthropic verhandeln müsste oder Claude in der Praxis bestimmte Anwendungen ablehnen würde, sei das „nicht machbar“.

Bemerkenswert ist, dass Anthropic im Sommer letzten Jahres einen zweijährigen Prototyp-Vertrag mit einem Limit von 200 Millionen US-Dollar unterzeichnete. Claude wurde zum ersten kommerziellen KI-Modell, das in den geheimen Netzwerken des Pentagon eingesetzt werden darf, etwa für Waffentests und Echtzeit-Kommunikation im Einsatz.

Maduro-Überfall löst Eskalation aus

Der Auslöser dieser Vertragskrise liegt in einem Ereignis Anfang dieses Monats. Laut Axios vom 13. Februar setzte das US-Militär bei einem Überfall auf Venezuela, bei dem der ehemalige Präsident Nicolás Maduro festgenommen wurde, die Plattform von Palantir ein, um Claude für die Verarbeitung von Echtzeit-Geheimdienstdaten zu nutzen.

Berichtet wird, dass hochrangige Verantwortliche bei Anthropic nach Kenntnisnahme dieses Einsatzes Kontakt zu Palantir aufnahmen und fragten, ob Claude bei diesem Einsatz verwendet wurde. Dabei wurde angedeutet, dass sie diese Nutzung möglicherweise nicht gutheißen, da die Operation kinetische Angriffe (nicht explodierende Durchschlagswaffen) beinhaltete.

Das Pentagon bestritt die Nutzung von Claude in diesem Zusammenhang, was intern zu erheblichen Bedenken führte.

Ein Sprecher von Anthropic dementierte energisch und erklärte, es habe Diskussionen mit dem Verteidigungsministerium bezüglich bestimmter militärischer Einsätze gegeben.

Die anderen drei Giganten „haben keine Einwände“

Im Gegensatz zu Anthropic zeigten die anderen drei KI-Labore bei den Forderungen des Pentagons eine deutlich größere Flexibilität:

  • OpenAI (ChatGPT) hat bereits zugestimmt, bei der Zusammenarbeit mit dem Pentagon die Sicherheitsvorkehrungen für reguläre Nutzer aufzuheben
  • Google (Gemini) zeigt eine proaktive Kooperationshaltung
  • xAI (Grok) signalisiert ebenfalls Bereitschaft zur Zusammenarbeit

Berichten zufolge hat mindestens eines dieser drei Labore die „alle rechtmäßigen Zwecke“-Klausel vollständig akzeptiert, die anderen zwei zeigen deutlich mehr Flexibilität als Anthropic. Damit ist Anthropic im militärischen KI-Wettbewerb des Pentagon der einzige, der an seinen Sicherheitsgrundsätzen festhält, aber auch Gefahr läuft, an den Rand gedrängt zu werden.

Die ultimative Ausdehnung von KI-Produkten ist die nationale Sicherheit, und der militärische Einsatz ist ein unvermeidlicher Kernbereich.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare