DeepSeek V4 entfacht US-Debatte: Think Tank stellt die Chip-Nutzung infrage, Replit-CEO verteidigt offene Innovation

Gate News-Mitteilung, 24. April — In den Vereinigten Staaten ist eine Debatte über die technologischen Fähigkeiten und die Compliance von DeepSeek V4 ausgebrochen. Chris McGuire, Senior Fellow beim Council on Foreign Relations (CFR) und ehemaliger Beamter im Nationalen Sicherheitsrat des Weißen Hauses sowie im Verteidigungsministerium, veröffentlichte eine Analyse, in der argumentiert wird, dass V4 die US-China-KI-Wettbewerbslandschaft nicht verändert habe. Laut McGuire erkennt das eigene V4-Report von DeepSeek an, dass seine Schlussfolgerungsfähigkeiten Frontier-Modelle um etwa 3 bis 6 Monate hinter sich lassen, gemessen anhand von Benchmarks gegen GPT-5.2 und Gemini 3.0 Pro, die sechs Monate zuvor veröffentlicht wurden.

McGuire äußerte Bedenken, dass der V4-Report zwar Anpassungen in der Inferenzphase an NVIDIA-GPUs und Huawei Ascend NPUs offenlegt, jedoch öffentlich keine Angaben zu den GPU-Modellen oder den Trainingskosten macht, die während der Entwicklung verwendet wurden. Er fragte, ob dieses Schweigen auf den Einsatz exportkontrollierter NVIDIA-Blackwell-Chips hindeutet, und verwies darauf, dass V3 zuvor behauptet habe, 2.000 H800-GPUs zu einem Preis von 5,57 Millionen US-Dollar genutzt zu haben. DeepSeek hat die Nutzung von Blackwell bestritten und erklärte, das Modell sei auf NVIDIA H800- und Huawei Ascend 910C-Prozessoren trainiert worden.

Der Replit-CEO Amjad Masad widersprach McGuires Analyse und argumentierte, dass chinesische Wissenschaftler öffentlich echte Durchbrüche im Bereich KI teilen, während amerikanische politische Entscheidungsträger und Lobbyisten die Bedenken über „China-Distillation“ verstärken. Masad hob architektonische Innovationen hervor, die in DeepSeeks offiziellen Aussagen offengelegt wurden, darunter Komprimierung der Attention auf Token-Ebene (DeepSeek Sparse Attention) und erhebliche Effizienzverbesserungen für die Berechnung in langen Kontexten. Er bemerkte, dass V4-Pro eine deutlich niedrigere Inferenz-Compute pro Token sowie geringere Anforderungen an den KV-Cache bei 1M-Kontextlängen zeigt als V3.2. Dabei betonte er, dass diese architektonischen Fortschritte nicht mit Distillation von Trainingsdaten zusammenhängen und dass alle Forschenden, einschließlich amerikanischer Labore, von offenen Entwicklungen profitieren können.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

OpenAI-Ingenieur Clive Chan stellt V4-Hardwareempfehlungen infrage und nennt Fehler und Unklarheit im Vergleich zu V3

Gate News Mitteilung, 24. April — OpenAI-Ingenieur Clive Chan hat detaillierte Einwände gegen das Kapitel mit den Hardware-Empfehlungen im technischen V4-Bericht erhoben und es im Vergleich zur vielgepriesenen V3-Version als "überraschend mittelmäßig und fehleranfällig" bezeichnet. Die Hardware-Anleitung von V3, die Q&A-Sessions

GateNews18M her

Naver startet AI-Tab-Beta, während Google Gemini in den Suchmarkt Südkoreas eintritt

Gate-News-Meldung, 24. April — Naver gab den Start eines geschlossenen Betatests für AI Tab bekannt, seiner neuen konversationellen Suchfunktion, nachdem Google Gemini in Chrome in Südkorea eingeführt hat. AI Tab wird neben den bestehenden Such-Tabs von Naver erscheinen und Nutzern einen eigenen Bereich für konversationelle

GateNews30M her

Indiens AI Engineering-Einstellungen steigen um 59,5% und gehen über Tech-Zentren hinaus

LinkedIns KI-Arbeitsmarktbericht 2026, der am 24. April veröffentlicht wurde, stellte fest, dass die Einstellungen für KI-Engineering in Indien im Jahresvergleich um 59,5% gestiegen sind und damit das schnellste Tempo unter den von der Plattform untersuchten Märkten darstellt. Das Wachstum wurde durch eine sich ausbreitende Nachfrage über etablierte Technologiestandorte hinaus angetrieben. Städte einschließlich

CryptoFrontier50M her

Commonwealth Bank senkt 120 Stellen im Zuge der KI-Expansion

Die Commonwealth Bank of Australia hat angekündigt, etwa 120 Arbeitsplätze zu streichen, da die größte Bank des Landes ihre Stellen überprüft und ihren Einsatz von Künstlicher Intelligenz ausweitet, laut Bloomberg. Die Kürzungen umfassen 43 Stellen bei Bankwest in Westaustralien, wobei sechs Positionen von der Automatisierung betroffen sind. Dies ist ein

CryptoFrontier59M her

Cursor deckt XAI-Trainingsgrund auf: Die Rechenleistung wird blockiert, SpaceX hält außerdem 60 Milliarden US-Dollar Kaufoptionen bereit

Anysphere kündigt an, dass Cursor mit der xAI mithilfe der Colossus-Infrastruktur neue Modelle trainieren wird, um die Rechenkapazitätsgrenze zu durchbrechen; SpaceX legt eine Übernahmeoption in Höhe von 60 Milliarden US-Dollar vor (vollständige Übernahme innerhalb von 2026), andernfalls wird etwa 10 Milliarden US-Dollar als Kooperationsentschädigung gezahlt. Beide Transaktionen laufen gleichzeitig und werden neu definieren, wer Cursor trainieren kann und wer Cursor kaufen kann; Cursor erlaubt weiterhin viele Modell-Backends, aber der langfristige Verlauf hängt davon ab, ob SpaceX das Übernahmerecht ausübt.

ChainNewsAbmedia1Std her

Anthropic: Bewertung des Zweitmarkts überschreitet 1 Billion US-Dollar: Forge Global überholt OpenAI mit 880 Milliarden

Laut einem Bericht von Decrypt beträgt die sekundäre Bewertung von Forge Global für Anthropic etwa 1 Billion US-Dollar, für OpenAI etwa 880 Milliarden US-Dollar, wobei es erstmals zu einem führenden Umschwung im Sekundärmarkt kommt. Anthropic ARR stieg von ungefähr 9 Milliarden am Jahresende 2025 auf etwa 30 Milliarden im März 2026; in drei Monaten entspricht das einem Wachstum von 233%, was die Private-Equity-Bewertungen anhebt. Sekundäre Bewertungen unterscheiden sich von Erstfinanzierungen und spiegeln die Erwartungen an einen Exit wider; in Zukunft werden weiterhin vier Schienen betrachtet: Technologie, Politik, Geschäftsmodell und Narrativ.

ChainNewsAbmedia1Std her
Kommentieren
0/400
Keine Kommentare