Google bringt neue TPU-Chips der achten Generation auf den Markt: Verbesserte Preis-Leistungs-Effizienz, Trennung von Training und Inferenz

Gate News, Meldung vom 22. April — Google Cloud hat die Veröffentlichung seiner kundenspezifisch gebauten TPU (Tensor Processing Unit)-Chips der achten Generation am 22. April angekündigt. Die neue Produktlinie umfasst TPU 8t, die speziell für KI-Trainingsaufgaben entwickelt wurde, sowie TPU 8i, das für KI-Inferenz-Workloads optimiert ist. Beide Chips werden später in diesem Jahr verfügbar sein. Google hat außerdem neue Tools vorgestellt, um KI-Agenten zu bauen, und einen $750 Millionen-Fonds angekündigt, um die Einführung von Enterprise-KI voranzutreiben.

TPU 8t liefert 2,8-mal die Leistung der vorherigen Generation von Googles Ironwood-TPU zum gleichen Preisniveau. TPU 8i steigert die Leistung um 80% gegenüber dem Vorgänger und integriert eine statische Random-Access-Memory (SRAM)-Architektur, um „kosteneffizienten Durchsatz in großem Maßstab und geringe Latenz zu ermöglichen und damit zu erreichen, dass Millionen von Agenten gleichzeitig laufen können“, so CEO Sundar Pichai. Im Vergleich zu Ironwood erreichen beide TPU 8t und TPU 8i eine mehr als doppelt so hohe Energieeffizienz pro Watt: TPU 8t verbessert sich um 124% und TPU 8i um 117%. Google hat die Energieeffizienz über den gesamten Technologiestapel hinweg optimiert und integrierte dynamische Energiemanagementsysteme, die den Verbrauch anhand der aktuellen Nachfrage anpassen.

Googles eigene Modelle verarbeiten jetzt über 160 Milliarden Tokens pro Minute über direkte Kunden-API-Aufrufe, nach 100 Milliarden im letzten Quartal. KI erzeugt nun 75% sämtlichen neuen Codes bei Google, verglichen mit 50% im Herbst des vergangenen Jahres. Gemini Enterprise, Googles Angebot für Unternehmen, wuchs um 40% im Quartalsvergleich bei den bezahlten monatlich aktiven Nutzern. Das Unternehmen erwartet, bis 2026 etwas mehr als die Hälfte seines Machine-Learning-Compute-Budgets in Cloud-Dienste zu investieren, um Cloud-Kunden und -Partner besser zu bedienen. Google erweitert zudem seine Zusammenarbeit mit Broadcom, um kundenspezifische TPU-Chips für künftige Generationen zu entwickeln und bereitzustellen, während große Technologiefirmen nach Alternativen zu den teuren und lieferengpassbedingten GPUs von NVIDIA und AMD suchen.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

OpenClaw, Hermes und SillyTavern als Unterstützung im GLM Coding Plan bestätigt

Zhipu AI PM Li kündigt OpenClaw, Hermes und SillyTavern als unterstützte GLM Coding Plan-Projekte an; andere Tools werden im Einzelfall bewertet. Gib keine Zugangsdaten weiter oder nutze Abonnements als API-Zugriff; kontaktiere den Support für Fehler 1313. Der Produktmanager von Zhipu AI, Li, gab bekannt, dass OpenClaw, Hermes und SillyTavern offiziell im GLM Coding Plan unterstützt werden, wobei andere Tools im Einzelfall bewertet werden. Der Hinweis warnt davor, Zugangsdaten weiterzugeben oder Abonnements als API-Zugriff zu nutzen, und verweist Nutzer mit Fehler 1313 an den Support.

GateNews1Std her

Google-Cloud-CEO: Gemini soll Apples personalisierten Siri-Rollout 2026 antreiben

Zusammenfassung: Gemini wird 2026 eine personalisierte Apple Siri antreiben, aufgebaut auf Apples Foundation Models und der Gemini-Zusammenarbeit von Apple; Apple testet einen chatartigen Siri in iOS 27/macOS 27, der für die WWDC 2026 vorgesehen ist. Zusammenfassung: Googles Cloud-Gemini soll bis 2026 eine personalisierte Apple Siri antreiben, indem Gemini mit Apples Foundation Models verbunden wird, im Rahmen einer Zusammenarbeit im Umfang von ungefähr $1 Milliarden. Apple testet eine überarbeitete, chatartige Siri in iOS 27/macOS 27, mit einer Dynamic-Island-Oberfläche und neuen Funktionen, bevor die Enthüllung auf der WWDC 2026 am 8. Juni erfolgt.

GateNews1Std her

SpaceX $60B Cursor-Deal treibt SBFs Begnadigungspläne an, während der $200K -Anteil von FTX jetzt 3 Mrd. $ wert ist

Gate News-Nachricht, 22. April — SpaceX hat heute eine bedeutende Partnerschaft mit dem KI-Coding-Startup Cursor angekündigt, mit der Option, das Unternehmen für $60 Milliarden zu übernehmen. Die Vereinbarung hat Sam Bankman-Fried (SBF), der derzeit inhaftiert ist und sich für eine begnadigung durch den Präsidenten einsetzt, neue Munition gegeben, da sie zeigt, welches Wertsteigerungspotenzial die Rückholung von Werten bieten könnte, für das er lange argumentiert hat, dass FTX hätte erreichen können. Im April 2022 investierte Alameda Research, das von SBF gegründete Handelsunternehmen, 200.000 US-Dollar in das Cursor-Parent-Unternehmen Anysphere und erwarb dabei etwa 5 % Eigenkapital. Als FTX im November 2022 zusammenbrach, übernahm das Insolvenzgericht die Kontrolle über das Unternehmen. Im April 2023 verkaufte der Insolvenzmasse von FTX genau diese 5%-Beteiligung für 200.000 US-Dollar — denselben Betrag, den Alameda investiert hatte. Basierend auf der Milliarden-Bewertung, die SpaceX heute bekannt gegeben hat, wäre diese 5%-Beteiligung nun ungefähr Milliarden wert, was einer Rendite von 15.000x entspricht. SBF hat schon lange behauptet, dass FTX nicht wirklich zahlungsunfähig gewesen sei und dass Insolvenzanwälte durch die vorzeitige Liquidation von Vermögenswerten Werte zerstört hätten. Im Februar 2026 teilte er Prognosen, wonach FTX nach der Rückgewinnung von Vermögenswerten einen Nettovermögenswert von Milliarden hätte erreichen können. Auch seine Eltern haben sich aktiv um eine begnadigung bemüht und traten im März auf CNN auf, um zu argumentieren, dass FTX-Kunden vollständig erstattet worden seien. Allerdings wiesen Gläubiger darauf hin, dass die Erstattungen auf Bewertungen aus dem Jahr 2022 basierten, nicht auf aktuellen Marktpreisen. Präsident Trump hat erklärt, dass er SBF nicht begnadigen werde, und Prognosemärkte schätzen die Wahrscheinlichkeit einer Begnadigung im Jahr 2026 derzeit nur auf 5 %.

GateNews1Std her

Chegg-Aktie stürzt um 99 %, da KI den Edtech-Markt aufmischt

Zusammenfassung: Chegg schoss angesichts der Nachfrage nach Online-Bildung in die Höhe, dann stießen KI-Tools das Geschäftsmodell auf, was zu massiven Entlassungen und einem Absturz unter $2 führte; breitere, von KI getriebene Umwälzungen trafen zudem Krypto-Miner und Fintech-Unternehmen. Abstrakt: Dieser Artikel untersucht Cheggs Aufstieg als Liebling der Edtech-Branche in der Pandemiezeit und seinen anschließenden Niedergang im Zuge der schnellen Einführung von generativer KI, die schnelle Antworten liefert und Cheggs Wertversprechen untergräbt. Er dokumentiert die Entlassungen im Jahr 2025 und den Kurssturz der Aktie in Richtung Delistung und ordnet Cheggs Erfahrung in ein größeres KI-getriebenes Umbruchgeschehen ein, das Technik und Krypto neu formt: Bitcoin-Miner wechseln zu KI-Betriebsabläufen, und KI-native Strategien definieren die Wettbewerbsfähigkeit in Fintech und darüber hinaus neu.

CryptoFrontier1Std her

OpenAI veröffentlicht Open-Source-Privacy-Filter-Modell zur Erkennung und Redaction von PII

Abstrakt: OpenAIs Privacy Filter ist ein Open-Source-Modell, das lokal ausführbar ist und PII in Text erkennt und redigiert. Es unterstützt große Kontexte, identifiziert viele PII-Kategorien und ist für datenschutzfreundliche Workflows wie die Datenaufbereitung, das Indexing, das Logging und die Moderation gedacht. OpenAIs Privacy Filter ist ein lokal ausgeführtes, Open-Source-Modell (128k-Token-Kontext), das PII in Text erkennt und redigiert und Daten aus den Bereichen Kontakt, Finanzen und Zugangsdaten für datenschutzfreundliche Workflows abdeckt.

GateNews2Std her

OpenAI plant, bis 2030 30 GW Rechenleistung bereitzustellen

OpenAI strebt bis 2030 30 GW Rechenleistung an, um den steigenden Anforderungen an KI gerecht zu werden, wobei bereits 8 GW von einem 10-GW-Ziel für 2025 abgeschlossen sind. Die Ausweitung signalisiert eine Strategie, die Infrastruktur für die Entwicklung und Bereitstellung von KI der nächsten Generation hochzuskalieren. OpenAI beabsichtigt, bis 2030 30 GW Rechenleistung zu erreichen, um den wachsenden Anforderungen an KI gerecht zu werden, nachdem es bereits 8 GW eines 10-GW-Ziels für 2025 abgeschlossen hat. Der Schritt steht für eine strategische Erweiterung der Infrastruktur zur Unterstützung der Entwicklung und Bereitstellung von KI der nächsten Generation.

GateNews2Std her
Kommentieren
0/400
Keine Kommentare