IBM

IBM-Preis

Closed
IBM
$229,76
-$1,55(-0,67 %)

*Data last updated: 2026-05-10 09:17 (UTC+8)

As of 2026-05-10 09:17, IBM (IBM) is priced at $229,76, with a total market cap of $215,94B, a P/E ratio of 26,06, and a dividend yield of 2,92 %. Today, the stock price fluctuated between $224,89 and $230,71. The current price is 2,16 % above the day's low and 0,41 % below the day's high, with a trading volume of 4,22M. Over the past 52 weeks, IBM has traded between $220,75 to $324,90, and the current price is -29,28 % away from the 52-week high.

IBM Key Stats

Yesterday's Close$231,31
Market Cap$215,94B
Volumen4,22M
P/E Ratio26,06
Dividend Yield (TTM)2,92 %
Dividend Amount$1,69
Diluted EPS (TTM)11,45
Net Income (FY)$10,59B
Revenue (FY)$67,53B
Earnings Date2026-07-22
EPS Estimate3,03
Revenue Estimate$17,83B
Shares Outstanding933,58M
Beta (1Y)0.581
Ex-Dividend Date2026-05-08
Dividend Payment Date2026-06-10

About IBM

International Business Machines Corporation provides integrated solutions and services worldwide. The company operates through four business segments: Software, Consulting, Infrastructure, and Financing. The Software segment offers hybrid cloud platform and software solutions, such as Red Hat, an enterprise open-source solutions; software for business automation, AIOps and management, integration, and application servers; data and artificial intelligence solutions; and security software and services for threat, data, and identity. This segment also provides transaction processing software that supports clients' mission-critical and on-premise workloads in banking, airlines, and retail industries. The Consulting segment offers business transformation services, including strategy, business process design and operations, data and analytics, and system integration services; technology consulting services; and application and cloud platform services. The Infrastructure segment provides on-premises and cloud-based server and storage solutions for its clients' mission-critical and regulated workloads; and support services and solutions for hybrid cloud infrastructure, as well as remanufacturing and remarketing services for used equipment. The Financing segment offers lease, installment payment, loan financing, and short-term working capital financing services. The company was formerly known as Computing-Tabulating-Recording Co. International Business Machines Corporation was incorporated in 1911 and is headquartered in Armonk, New York.
SectorTechnology
IndustryInformation Technology Services
CEOArvind Krishna
HeadquartersArmonk,NY,US
Official Websitehttps://www.ibm.com

Erfahren Sie mehr über IBM (IBM)

Gate Learn Articles

Gate Research: Die Marktkapitalisierung des x402 Ecosystem Tokens übersteigt 840 Millionen US-Dollar | IBM startet eine Plattform für digitales Asset ManagementGate Research Daily Report: Bevor die offiziellen Zinssenkungen greifen, dürfte Bitcoin weiterhin in der Spanne von $113.792 bis $116.388 konsolidieren. Ethereum traf beim Versuch, das $4.200-Level zu überwinden, auf Widerstand und könnte kurzfristig weitere Rücksetzer oder eine Seitwärtsbewegung verzeichnen. Die Aktivität und das Nutzerwachstum auf der Clanker-Plattform bleiben dynamisch, CLANKER legte in den letzten 24 Stunden um 14,72 % zu. Das Listing an der Börse am 21. Oktober steigerte die Liquidität und ließ RECALL innerhalb von 24 Stunden um 11,21 % steigen. Die Infrastrukturentwicklung von x402 schreitet rasant voran; die Marktkapitalisierung des Ecosystem-Tokens überstieg $840 Millionen und verzeichnete einen 24-Stunden-Zuwachs von 384,1 %. Mit dem Launch der IBM Digital Asset Haven-Plattform baut Tech-Gigant IBM seine Präsenz im Bereich digitaler Assets weiter aus.2025-10-28
Gate Research: Vitalik hat diesen Monat 10.700 ETH verkauft | IBM bricht um 11 % ein, da KI traditionelle Geschäftsmodelle disruptiertGate Research Daily Report: Der Bitcoin zeigt aufgrund verschiedener Faktoren, darunter Trumps geplante globale Zölle von 15 %, keine ausgeprägte Aufwärtsdynamik. Ethereum bewegt sich weiterhin nahe seinem 20-Tage-Tief; mehrere Momentum-Indikatoren bestätigen eine schwache Marktstruktur. PIPPIN verzeichnete einen Anstieg von 16,62 %, vor allem durch starke spekulative Käufe und die Dynamik der Community. POWER gewann 12,05 %, was größtenteils auf Aktivitäten im Bereich des gehebelten Tradings zurückzuführen ist. Die Ankündigung von Anthropic zur Automatisierung der Modernisierung von COBOL-Systemen führte zu einem Kursverlust von 11 % bei IBM. ZachXBT bereitet die Veröffentlichung einer umfassenden Untersuchung vor; Prognosemärkte und Projekte im Zusammenhang mit Trump werden voraussichtlich einer intensiven Prüfung unterzogen. Vitalik verkaufte diesen Monat 10.700 ETH zu einem Durchschnittspreis von 2.027 US-Dollar, was für Aufmerksamkeit am Markt sorgt.2026-02-24
Das Joule-Paradoxon: Wie Energie den Wert von Bitcoin beeinflusst und Bitcoin den Energieverbrauch beeinflusstDieser Artikel erkundet die verbundene Beziehung zwischen Bitcoin und Energie. Die Energie, die beim Mining verwendet wird, spielt eine Schlüsselrolle bei der Festlegung des Werts von Bitcoin, und umgekehrt beeinflusst der Wert von Bitcoin, wie Energie verbraucht wird. Das Verständnis dieser Dynamik ist entscheidend, um die Rolle von Bitcoin sowohl auf den Finanz- als auch auf den Energiemärkten zu erfassen.2025-01-02

IBM (IBM) FAQ

What's the stock price of IBM (IBM) today?

x
IBM (IBM) is currently trading at $229,76, with a 24h change of -0,67 %. The 52-week trading range is $220,75–$324,90.

What are the 52-week high and low prices for IBM (IBM)?

x

What is the price-to-earnings (P/E) ratio of IBM (IBM)? What does it indicate?

x

What is the market cap of IBM (IBM)?

x

What is the most recent quarterly earnings per share (EPS) for IBM (IBM)?

x

Should you buy or sell IBM (IBM) now?

x

What factors can affect the stock price of IBM (IBM)?

x

How to buy IBM (IBM) stock?

x

Risk Warning

The stock market involves a high level of risk and price volatility. The value of your investment may increase or decrease, and you may not recover the full amount invested. Past performance is not a reliable indicator of future results. Before making any investment decisions, you should carefully assess your investment experience, financial situation, investment objectives, and risk tolerance, and conduct your own research. Where appropriate, consult an independent financial adviser.

Disclaimer

The content on this page is provided for informational purposes only and does not constitute investment advice, financial advice, or trading recommendations. Gate shall not be held liable for any loss or damage resulting from such financial decisions. Further, take note that Gate may not be able to provide full service in certain markets and jurisdictions, including but not limited to the United States of America, Canada, Iran, and Cuba. For more information on Restricted Locations, please refer to the User Agreement.

IBM (IBM) Latest News

2026-03-19 02:012025 Turing Award Revealed: Developer of Quantum Key Distribution Protocol BB84 AwardedGate News Nachrichten, 19. März 2025: Der Turing-Preis wird an den amerikanischen IBM-Forscher Charles H. Bennett und den Professor Gilles Brassard von der Universität Montreal, Kanada, verliehen. Die beiden gelten als Pioniere der Quanteninformationstheorie. Ihr bekanntestes Ergebnis, das BB84-Protokoll, ist das weltweit erste Quanten-Schlüsselverteilungsprotokoll (QKD) und markiert die Geburt der Quantenkryptographie. Die Zusammenarbeit begann 1979, als Brassard Bennett vorschlug, mithilfe der Quantenmechanik "fälschungssichere Banknoten" zu entwickeln. Mit dem rasanten Fortschritt der Quantencomputing-Technologie stehen traditionelle Public-Key-Kryptosysteme vor großen Herausforderungen. Quantenkommunikation (QKD) und Post-Quanten-Kryptographie (PQC) sind zu den beiden zentralen Säulen geworden, um die Sicherheit zukünftiger digitaler Kommunikation zu gewährleisten.2026-03-11 03:32IBM arbeitet mit Signal und Threema zusammen, um ein quantenresistentes Verschlüsselungssystem für Nachrichten zu entwickeln.Gate News Nachrichten, am 11. März arbeiten IBM-Forscher mit den verschlüsselten Nachrichten-Apps Signal und Threema zusammen, um ein Nachrichtensystem zu entwickeln, das gegen Quantenangriffe resistent ist. Kryptografie-Forscher Ethan Heilman weist darauf hin, dass aufgrund der Möglichkeit von "Pre-Storage, Post-Decrypt" Angriffen die kurzfristigen Quantenrisiken für verschlüsselte Plattformen möglicherweise größer sind als bei Bitcoin – Angreifer können verschlüsselte Daten abfangen und speichern, um sie später mit leistungsfähigen Quantencomputern zu entschlüsseln. Signal hat im Jahr 2023 ein PQXDH-Upgrade eingeführt, um neue Sitzungen zu schützen, und plant bis 2025 mit dem SPQR-Protokoll eine Erweiterung des Post-Quanten-Schutzes auf dauerhafte Nachrichten, Anrufe und Medien. Threema arbeitet mit IBM zusammen, um die NIST-standardisierten ML-KEM-Algorithmen in sein System zu integrieren. Die Forschung konzentriert sich auch auf den Schutz von Metadaten, doch ein einfacher Austausch bestehender Komponenten könnte zu erheblich erhöhtem Bandbreitenverbrauch führen, weshalb eine Neugestaltung der Protokolle auf der Grundebene notwendig ist.2026-02-25 07:20IBM-Aktienkurs fällt um 13 %, Marktkapitalisierung schmilzt um 31 Milliarden US-Dollar, Claude stößt auf COBOL-Geschäft und löst Bedenken hinsichtlich KI-Alternativen ausAm 25. Februar gab IBM-Aktien einen Tagesverlust von etwa 13 % bekannt, wodurch der Marktwert um fast 31 Milliarden US-Dollar schmolz und eine Neubewertung ihres Kerngeschäftsmodells durch die Wall Street ausgelöst wurde. Der unmittelbare Auslöser für den Verkauf war die technische Entwicklung von Anthropic, deren Claude-Modell in der Lage sein soll, traditionelle COBOL-Codes zu lesen und zu modernisieren. Diese Fähigkeit zielt direkt auf IBMs langjährige Abhängigkeit vom Mainframe-Wartungs- und Unternehmensberatungsmarkt ab. Seit Jahren basiert IBMs Wettbewerbsvorteil im Bereich der Unternehmensinfrastruktur vor allem auf tiefgreifenden Dienstleistungen rund um Mainframe-Systeme und COBOL. Banken, Versicherungen und Regierungsdatenbanken betreiben noch immer große Mengen an Altcode, was Systemwartung, Upgrades und Migrationen zu einer langfristigen, stabilen Einkommensquelle macht. Mit der zunehmenden Reife von KI-basierten Code-Migrationstools wächst jedoch die Sorge, dass die Automatisierung traditioneller Systemumgestaltungen die Kosten für Beratungsprojekte senken und die Abhängigkeit von klassischen Dienstleistern verringern könnte. Aus Marktsicht beschleunigen Unternehmen derzeit ihre Strategien zur Kostensenkung und Effizienzsteigerung, wobei die Nachfrage nach automatisierter Software-Umstrukturierung deutlich steigt. Wenn Claude in der Lage ist, komplexe Altcodes stabil zu verarbeiten und moderne Architekturkonzepte zu generieren, könnte dies die Hürden für COBOL-Systemmigrationen erheblich senken. Investoren haben daher das Risiko eines „AI-Schocks für Unternehmens-IT-Services“ in ihre Bewertungsmodelle eingerechnet, was zu einer verstärkten Verkaufswelle führte. Es ist wichtig zu beachten, dass weltweit noch Milliardenzeilen COBOL-Code in Betrieb sind, etwa in Gehaltsabrechnungssystemen, Versicherungsplattformen und kritischer Regierungsinfrastruktur. Aufgrund der technischen Komplexität, hoher Compliance-Anforderungen und großer Migrationsrisiken tendierten Unternehmen bisher dazu, Wartungsdienste langfristig auszulagern. Dieser Trend hat die Profitabilität von IBMs Beratungs- und Infrastrukturgeschäft bislang getragen. Wenn KI-gestützte Code-Refactoring-Tools jedoch in großem Maßstab eingesetzt werden, könnten Unternehmen auf schnellere und kostengünstigere Modernisierungspfade umsteigen. Allerdings weisen Branchenexperten darauf hin, dass die Migration kritischer Systeme weiterhin eine hohe Zuverlässigkeit und Sicherheitsüberprüfung erfordert. Die Genauigkeit und Compliance von KI-Tools bei der Verarbeitung extrem großer Codebasen bleiben zentrale Herausforderungen. Daher ist kurzfristig eher mit einer hybriden „AI + traditioneller Service“-Lösung zu rechnen, anstatt einer vollständigen Ablösung. Für IBM wird es entscheidend sein, ob sie im Bereich der unternehmensweiten KI-Modernisierung eine technologische Führungsposition aufbauen können, da dies maßgeblich die Kursentwicklung und die Wettbewerbsfähigkeit ihres Technologiebereichs beeinflussen wird.2026-02-23 20:31TradFi-Absturzwarnung: IBM fällt um über 12%Gate News Bot Nachricht: Laut den neuesten Daten von Gate TradFi ist IBM kurzfristig um 12 % gefallen, die aktuelle Volatilität liegt deutlich über dem jüngsten Durchschnitt, und die Marktaktivität nimmt zu.2026-02-23 19:31TradFi-Absturzwarnung: IBM fällt um über 10%Gate News Bot Nachricht, laut den neuesten Daten von Gate TradFi ist IBM kurzfristig um 10 % gefallen, die aktuelle Volatilität liegt deutlich über dem jüngsten Durchschnitt, die Marktaktivität nimmt zu.

Beliebte Beiträge zu IBM (IBM)

MEV_Whisperer

MEV_Whisperer

Vor 13 Stunden
Ich habe mich kürzlich mit den neuesten Durchbrüchen in der Quantencomputing-Technologie 2024 beschäftigt, und ehrlich gesagt fühlte sich dieses Jahr anders an als der übliche Hype-Zyklus. Statt einer einzigen großen Ankündigung, die in Nichts zerfällt, bekamen wir drei völlig separate bedeutende Entwicklungen von verschiedenen Unternehmen, die ganz unterschiedliche Hardware-Ansätze verwenden. Das ist das Muster, das tatsächlich auf eine voranschreitende Entwicklung des Fachgebiets hindeutet, anstatt nur im Kreis zu drehen. Lass mich zusammenfassen, was tatsächlich passiert ist, denn die Details sind wichtiger als die Schlagzeilen. Google veröffentlichte im Dezember Willow – einen 105-Qubit-Supraleiter-Chip, der etwas erreichte, wonach das Fachgebiet seit etwa 30 Jahren strebte. Als sie mehr Qubits hinzufügten, sank die Fehlerquote statt zu steigen. Das klingt offensichtlich, bis man erkennt, dass es das Gegenteil von dem ist, was die Quantencomputing-Welt bisher getan hat. Mehr Qubits bedeuteten immer mehr Rauschen, mehr kaskadierende Fehler, weniger Zuverlässigkeit. Willow änderte diese Gleichung durch ihre Fehlerkorrektur-Architektur. Sie führten eine Berechnung in weniger als fünf Minuten durch, die klassische Supercomputer in 10 Septillionen Jahren erledigen könnten. Ja, 10 hoch 25. Die Veröffentlichung in *Nature* ist ebenfalls bedeutend – frühere Behauptungen zur Quantenüberlegenheit wurden ernsthaft kritisiert, daher ist eine peer-reviewed Methodik tatsächlich relevant. Aber hier ist das Ding: Willows Test ist noch eng gefasst. Es beweist, dass bestimmte Berechnungen klassisch unlösbar sind, nicht dass wir morgen plötzlich Medikamente entdecken oder Klimamodelle simulieren. Der wahre Wert liegt in der Architektur – es beweist, dass groß angelegtes, fehlerkorrigiertes Quantencomputing nicht nur theoretisch ist. Dann gibt es die Arbeit von Microsoft und Quantinuum aus April, die weniger Aufmerksamkeit erhielt, aber wahrscheinlich bei Forschern mehr Anklang fand. Sie bauten logische Qubits mit Fehlerquoten, die 800-mal niedriger sind als die physischen Qubits darunter. Das ist die echte Trennlinie im Quantencomputing – physische Qubits sind fehleranfällig und zerbrechlich, logische Qubits kodieren Informationen redundant, sodass Fehler erkannt und korrigiert werden können. Das Problem war immer, dass man so viele physische Qubits brauchte, um ein logisches zu bauen, dass der Overhead das ganze Konzept zunichte machte. Eine Verbesserung um den Faktor 800 ändert diese Rechnung grundlegend. Im November ging Microsoft noch einen Schritt weiter und arbeitete mit Atom Computing zusammen, um 24 logische Qubits zu erstellen und zu verschränken, die mit ultrakalten neutralen Ytterbium-Atomen arbeiten. 99,963 % Fidelity bei Einzel-Qubit-Operationen. Ein komplett anderer Hardware-Architekturansatz, was wichtig ist, weil es bedeutet, dass mehrere gangbare Wege gleichzeitig funktionieren, anstatt alles auf einen Ansatz zu setzen. Dann erreichte Quantinuum im Dezember 50 verschränkte logische Qubits. Das ist nicht mehr nur Zukunftsmusik – das ist Gegenwart. Der Beitrag von IBM war ruhiger, aber dennoch bemerkenswert. Ihr Heron R2-Prozessor erreichte im November 156 Qubits mit einer 50-fachen Beschleunigung bei Arbeitslasten, die zuvor 120 Stunden benötigten. Wichtiger war ihr neuer Fehlerkorrektur-Code – der bivariate Fahrrad-qLDPC-Code –, der die gleiche Fehlerunterdrückung wie herkömmliche Codes erreicht, aber mit dem Zehnfachen an Overhead. Dieser Effizienzgewinn macht fehlerresistentes Quantencomputing eher zu einem ingenieurtechnischen Problem mit Lösung als zu einer theoretischen Unmöglichkeit. Was oft übersehen wird: NIST veröffentlichte im August die ersten Standards für Post-Quanten-Kryptographie. Das ist bedeutend, weil es das erste Mal ist, dass eine große Normungsorganisation offiziell anerkennt, dass Quantencomputer, die aktuelle Verschlüsselungen brechen können, nicht mehr nur theoretisch sind. Regierungen und Unternehmen müssen jetzt mit der Transition beginnen. Der Zeitraum von Standardveröffentlichung bis zur breiten Anwendung beträgt typischerweise ein Jahrzehnt oder mehr, also begann die Uhr 2024 zu ticken. Betrachtet man die neuesten Durchbrüche im Quantencomputing 2024 insgesamt, hat das Fachgebiet im Grunde bewiesen, dass es aufgehört hat, sich nur in eine Richtung zu entwickeln, und stattdessen in allen Dimensionen gleichzeitig Fortschritte macht – Hardware, Fehlerkorrektur, logische Qubits, Software-Effizienz. Es hat sich vom reinen Theoriefeld zu einem ingenieurtechnischen Bereich gewandelt, mit unabhängig überprüfbaren Meilensteinen. Bedeutet das, dass das Quantencomputing angekommen ist? Nicht ganz. Willow läuft noch nicht für Anwendungen wie die Medikamentenentwicklung. Quantinuums logische Qubits können Fehler erkennen, aber die vollständige Fehlerkorrektur ist noch in Arbeit. Microsofts Neutral-Atom-Systeme benötigen Infrastruktur, die noch nicht im großen Maßstab existiert. Der vollständig fehlerkorrigierte Starling-Prozessor von IBM ist erst für 2029 geplant. Aber was in 2024 wirklich wichtig war, ist der Nachweis, dass das Fachgebiet gleichzeitig in mehreren Ansätzen Fortschritte machen kann. Die Frage verschob sich von „Ist groß angelegtes, fehlerkorrigiertes Quantencomputing möglich?“ zu „Welcher Ansatz skaliert am schnellsten und wann rechtfertigen praktische Anwendungen die Investition?“ Das ist ein grundlegend anderes Gespräch als noch vor einigen Jahren.
0
0
0
0
MEVHunterX

MEVHunterX

Vor 14 Stunden
Ich verfolge den Bereich der Quantencomputing schon eine Weile, und 2024 hat wirklich etwas Grundlegendes verändert. Nicht der übliche Hype-Zyklus, bei dem ein Unternehmen eine Pressemitteilung veröffentlicht und dann ein Jahr lang nichts passiert. Dieses Mal haben drei völlig unterschiedliche Teams von drei verschiedenen Firmen fast gleichzeitig bedeutende Meilensteine erreicht, alle mit völlig unterschiedlichen technischen Ansätzen. Das ist das Signal, das zeigt, dass sich ein Feld tatsächlich bewegt. Lass mich zusammenfassen, was tatsächlich passiert ist und warum es wichtig ist, vor allem wenn du wissen willst, wohin die digitale Sicherheit und die Blockchain-Infrastruktur steuern. Die Ankündigung von Google mit Willow im Dezember traf am härtesten. Sie bauten einen 105-Qubit-Prozessor, der etwas erreichte, wonach Forscher fast 30 Jahre lang gesucht haben: Sie bewiesen, dass das Hinzufügen weiterer Qubits tatsächlich Fehler reduziert, anstatt alles lauter zu machen. Das klingt trivial, bis man erkennt, dass dies der zentrale Blocker für das gesamte Feld war. Mehr Qubits bedeuteten immer mehr Probleme. Willow durchbrach dieses Muster. Der Benchmark, den sie durchführten, zog alle Aufmerksamkeit auf sich – eine Berechnung, die angeblich klassische Computer 10 Septillionen Jahre dauern würde. Aber die eigentliche Leistung war leiser und wichtiger: Sie demonstrierten, was als „unter-Schwellen-Betrieb“ bezeichnet wird. Die Architektur funktioniert tatsächlich im großen Maßstab. Die vollständigen technischen Details veröffentlichten sie in Nature, was wichtig ist, weil frühere Quantenbehauptungen legitime Kritik erhielten. Dieses Mal ist die Methodik offen für Überprüfung. Zur gleichen Zeit hatten Microsoft und Quantinuum still und heimlich Erfolge gesammelt. Anfang 2024 veröffentlichten sie Ergebnisse, die logische Qubits mit Fehlerquoten zeigten, die 800-mal niedriger sind als die physischen Qubits darunter. Im November arbeiteten sie mit Atom Computing zusammen und erzeugten sowie verschränkten 24 logische Qubits mit neutralen Atomen – ein völlig anderer Hardware-Ansatz als Googles supraleitende Konstruktion. Bis Dezember ging Quantinuum noch einen Schritt weiter: 50 verschränkte logische Qubits. Was hier zählt, ist, dass mehrere Wege gleichzeitig funktionieren. Google setzt auf supraleitende Qubits. Microsoft und Partner erforschen neutrale Atome und topologische Ansätze. Das ist kein Wettbewerb, bei dem nur ein Sieger übrig bleibt – das ist die Reife des Feldes. Der Beitrag von IBM war weniger auffällig, aber wahrscheinlich relevanter für die tatsächliche Implementierung. Ihr Heron R2-Prozessor erreichte im November 156 Qubits mit messbaren Leistungssteigerungen: Die Fehler bei 2-Qubit-Gattern sanken deutlich, und Arbeitslasten, die früher 120+ Stunden dauerten, liefen in 2,4 Stunden. Außerdem veröffentlichten sie einen neuen Fehlerkorrektur-Code, der den Overhead an physischen Qubits um etwa das Zehnfache reduziert. Das ist die Art von Ingenieurskunst, die theoretische Systeme in praktische verwandelt. Der Entwicklungsschritt, über den niemand spricht, den aber jeder kennen sollte: NIST veröffentlichte im August 2024 offiziell Standards für Post-Quanten-Kryptographie. Zwei der drei Algorithmen stammen vom Kryptografie-Team von IBM. Das ist das erste Mal, dass eine globale Normungsorganisation offiziell anerkennt, dass Quantencomputer, die aktuelle Verschlüsselung knacken können, nicht mehr nur theoretisch sind. Regierungen und Unternehmen müssen jetzt damit beginnen, ihre Verschlüsselungsinfrastruktur umzubauen, bevor kryptografisch relevante Quantencomputer verfügbar sind. Dieser Zeitplan liegt typischerweise bei einem Jahrzehnt oder mehr zwischen Standardveröffentlichung und breiter Anwendung. Für alle, die Blockchain und digitale Assets im Blick haben, ist das direkt relevant. Die aktuelle Wallet-Verschlüsselung, Transaktionssignaturen und Smart-Contract-Sicherheit basieren alle auf asymmetrischer Kryptographie, die Quantencomputer irgendwann brechen werden. Der Infrastruktur-Übergang hat offiziell begonnen. Hier ist aber die ehrliche Wahrheit: Das bedeutet nicht, dass das Quantencomputing 2024 „angekommen“ ist, um reale Probleme zu lösen. Googles Willow läuft nicht für Medikamentenentdeckungen oder Klimasimulationen. Quantinuums 50 logische Qubits können Fehler erkennen, aber die vollständige Korrektur – also Fehler erkennen und beheben, ohne den Quantenzustand zu zerstören – ist noch in Arbeit. Microsofts Ansatz mit neutralen Atomen erfordert Laser-Infrastruktur, die noch nicht im großen Maßstab existiert. Was 2024 tatsächlich bewiesen hat, ist noch wichtiger: Das Feld hat aufgehört, sich nur in eine Richtung zu entwickeln, und beginnt, in alle Richtungen gleichzeitig voranzukommen. Hardware-Verbesserungen, Durchbrüche bei der Fehlerkorrektur, die Skalierung logischer Qubits und kryptografische Standards – alles bewegt sich gleichzeitig voran. Die Forschungsgemeinschaft hat sich vom reinen Theoretiker zum Ingenieur gewandelt, der messbare Meilensteine erreicht. Die neuesten Durchbrüche im Quantencomputing 2024 ebnen den Weg für eine klare nächste Phase. Google arbeitet an voll funktionsfähigem, fehlertolerantem Betrieb. Microsoft zielt innerhalb weniger Jahre auf 50-100 verschränkte logische Qubits in kommerziellen Systemen. Der IBM-Starling-Prozessor ist für 2029 geplant, mit 200 fehlerkorrigierten Qubits, um den Übergang von Quanten-Nutzen zu tatsächlichem kommerziellem Vorteil zu schaffen. Die eigentliche Frage ist nicht mehr, ob groß angelegtes, fehlerkorrigiertes Quantencomputing möglich ist – das ist 2024 in mehreren Hardware-Ansätzen geklärt. Jetzt geht es darum, welcher Ansatz am schnellsten skaliert und wie schnell Anwendungen entstehen, die die Investition rechtfertigen. Besonders im Bereich der digitalen Assets läuft das Rennen, um die Verschlüsselungsstandards zu aktualisieren, bevor kryptografisch relevante Quantencomputer kommen. Wenn du Blockchain-Infrastruktur oder digitale Assets verwaltest, ist dieses Übergangsfenster eine, auf die du genau achten solltest.
0
0
0
0
rugdoc.eth

rugdoc.eth

Vor 16 Stunden
Ich verfolge die Quantencomputing-Technologie schon eine Weile genau, und ich muss sagen — 2024 war wirklich anders als der übliche Hype-Zyklus. Jedes Jahr gibt es eine Ankündigung, die weltverändernd klingt, dann passiert nichts. Letztes Jahr fühlte sich jedoch anders an. Innerhalb weniger Monate erreichten drei völlig unterschiedliche Teams mit völlig verschiedenen Ansätzen alle bedeutende Meilensteine gleichzeitig. Wenn das in verschiedenen Hardware-Architekturen passiert, bedeutet das tatsächlich etwas. Das Feld bewegt sich vorwärts, es dreht sich nicht nur im Kreis. Lass mich zusammenfassen, was tatsächlich passiert ist und warum es wichtig ist. Beginnen wir mit Googles Willow-Ankündigung im Dezember 2024. Diese erregte die meiste Aufmerksamkeit, und ehrlich gesagt, aus gutem Grund. Sie bauten einen 105-Qubit-Prozessor in ihrer Einrichtung in Santa Barbara und demonstrierten etwas, wonach Forscher fast 30 Jahre lang gesucht haben. Das Kernthema: Mehr Qubits zu haben, führte tatsächlich dazu, dass die Fehlerquote sank, anstatt zu steigen. Das klingt simpel, ist es aber nicht. Das ganze Problem beim Quantencomputing seit Jahrzehnten ist, dass größere Systeme lautstärker sind. Man baut mehr Qubits, und es entstehen mehr Fehler, die sich durch alles ausbreiten. Willow durchbrach dieses Muster mit ihrer Fehlerkorrektur-Architektur. Sie erreichten den sogenannten „below-threshold“-Betrieb — den Punkt, an dem Skalierung tatsächlich hilft, anstatt zu schaden. Sie veröffentlichten die technischen Details in Nature, was wichtig ist, weil frühere Behauptungen im Quantencomputing legitimen Gegenwind bekommen haben. Die Methodik öffentlich zugänglich zu machen, ist ein echter Unterschied. Das Benchmark, das sie nebenbei durchführten, wurde sofort berühmt — Willow löste eine spezifische Berechnung in weniger als fünf Minuten, die die besten klassischen Supercomputer heute in 10 Septillionen Jahren erledigen würden. Das sind 10 hoch 25. Ungefähr eine Million Mal das aktuelle Alter des Universums. Hartmut Neven, der Google Quantum AI 2012 gründete, sagte im Grunde, dass sie den Break-even-Punkt überschritten haben. Hier ist der ehrliche Teil: Willows Test ist noch sehr eingeschränkt. Es hat gezeigt, dass bestimmte Berechnungen für diesen Chip klassisch unmöglich sind, aber es bedeutet noch nicht, dass Willow schon für die Wirkstoffforschung oder Klimamodellierung geeignet ist. Der wahre Wert ist architektonisch — es zeigt, dass groß angelegtes, fehlerkorrigiertes Quantencomputing nicht nur Theorie ist. Es ist ein tatsächlicher Engineering-Pfad, den man bauen kann. Aber Willow war 2024 nicht allein. Acht Monate vor dieser Ankündigung veröffentlichten Microsoft und Quantinuum etwas, das weniger allgemeine Presse bekam, aber bei Forschern im Feld mehr Aufmerksamkeit fand. Sie demonstrierten logische Qubits mit Fehlerquoten, die 800-mal niedriger sind als die physischen Qubits, aus denen sie gebaut wurden. Das ist die entscheidende Unterscheidung, über die außerhalb der Forschungsgemeinschaft kaum gesprochen wird. Physische Qubits sind die tatsächliche Hardware — sie sind laut, empfindlich gegenüber Temperatur, Vibrationen und allem. Logische Qubits werden durch die Kombination mehrerer physischer Qubits in eine Struktur gebaut, die Informationen redundant speichert, sodass Fehler erkannt und korrigiert werden können, ohne die Berechnung zu zerstören. Das Problem war immer, dass logische Qubits so viele physische Qubits benötigen, dass der Overhead unpraktisch wird. Eine 800-fache Fehlerreduktion macht logische Qubits plötzlich realistisch statt nur theoretisch. Microsoft ging im November 2024 noch einen Schritt weiter. In Zusammenarbeit mit Atom Computing schufen und verschränkten sie 24 logische Qubits mit ultrakalten neutralen Ytterbium-Atomen — ein weiterer Rekord. Sie erreichten Gatter-Fidelitäten von 99,963 % bei Einzel-Qubit-Operationen und 99,56 % bei Zwei-Qubit-Gattern. Der Ansatz mit neutralen Atomen nutzt lasergekühlte Atome, die in Position gehalten werden durch optische Zupfer. Völlig andere Hardware als Googles supraleitende Methode. Das ist wichtig, weil es bedeutet, dass mehrere gangbare Wege in Richtung fehlerresistentes Quantencomputing gleichzeitig Fortschritte machen. Das Feld setzt nicht alles auf eine einzige Methode. Dann drängte Quantinuum noch weiter vor. Im Dezember 2024 verschränkten sie 50 logische Qubits — ein weiterer Rekord. Das Zeitalter der logischen Qubits ist kein Zukunftsszenario mehr. Es passiert jetzt. Der Beitrag von IBM im Jahr 2024 war leiser, aber ebenso bedeutend, wenn man wissen will, wo praktisches Quantencomputing tatsächlich herkommt. Im November stellten sie den Heron R2-Prozessor vor — 156 Qubits, zweite Generation der Heron-Architektur. Die Qubit-Anzahl ist weniger entscheidend als die Leistungsentwicklung. Ihre 2Q-Gatter-Fehlerquoten sanken auf 8 mal 10 hoch -4. Das System kann jetzt Quanten-Schaltungen mit bis zu 5.000 Zwei-Qubit-Gatter-Operationen ausführen. Arbeitslasten, die auf ihrer besten Hardware mehr als 120 Stunden dauerten, laufen jetzt in etwa 2,4 Stunden. Das ist ungefähr eine 50-fache Geschwindigkeitssteigerung. Früher in 2024 schlossen sie auch ihre selbst auferlegte 100-mal-100-Herausforderung ab — eine 100-Qubit-Schaltung mit Tiefe 100 innerhalb von Stunden auf Heron laufen zu lassen. Das ist eine nutzbare Großrechenleistung. Etwas, das klassisch nicht durch brute force gelöst werden kann. Es steht für den gemessenen, inkrementellen Fortschritt, auf den IBM seinen Ruf aufgebaut hat. Das technisch bedeutendste Ergebnis von IBM kam in einem Nature-Papier über einen neuen Fehlerkorrektur-Code namens bivariate Fahrrad-qLDPC-Code. Konventionelle Quantenfehlerkorrektur mit Oberflächen-Codes benötigt etwa 3.000 physische Qubits, um ein einzelnes zuverlässiges logisches Qubit zu kodieren. IBMs neuer Code erreicht vergleichbare Fehlerunterdrückung mit nur 144 Daten-Qubits plus 144 Hilfs-Qubits — eine 10-fache Reduktion des Overheads. Solche Effizienzgewinne machen fehlerresistentes Quantencomputing weniger eine ferne Vision und mehr ein gut definiertes Engineering-Problem. Hier ist der Teil, der weniger erwähnt wird, aber genauso wichtig ist: Im August 2024 veröffentlichte NIST offiziell die ersten Standards für Post-Quanten-Kryptographie — Algorithmen, die gegen Angriffe zukünftiger Quantencomputer resistent sind. Zwei der drei Algorithmen wurden von IBM-Forschern in Zürich entwickelt. Warum ist das für Durchbrüche im Quantencomputing relevant? Weil es die erste konkrete Anerkennung durch eine globale Normungsorganisation ist, dass Quantencomputer, die aktuelle Verschlüsselung knacken können, nicht mehr nur theoretisch sind. Regierungen und Unternehmen müssen jetzt mit der Umstellung beginnen, bevor kryptografisch relevante Quantencomputer kommen. Der Zeitraum von Standardveröffentlichung bis zur breiten Anwendung beträgt typischerweise ein Jahrzehnt oder mehr. NISTs Entscheidung 2024 hat diesen Zeithorizont gestartet. Für Blockchain und digitale Vermögensinfrastruktur ist das direkt relevant. Die aktuellen Verschlüsselungssysteme, die Wallets und Transaktionen schützen, werden irgendwann quantenresistenten Alternativen weichen müssen. Das ist kein Vielleicht. Das ist ein Wann. Okay, also was hat 2024 tatsächlich bewiesen und was nicht? Es wäre leicht, all das zu lesen und zu denken, dass das Quantencomputing angekommen ist. Das stimmt so nicht ganz, und die beteiligten Forscher waren explizit dazu. Willow läuft noch keine Anwendungen in der Wirkstoffforschung. Es demonstrierte nur den below-threshold Fehlerkorrektur-Benchmark. Die Lücke zwischen dem und kommerziell nutzbarer Berechnung ist noch erheblich. Quantinuums 50 logische Qubits können Fehler erkennen, aber vollständige Fehlerkorrektur — Fehler erkennen und beheben, ohne den Quantenzustand zu zerstören — ist noch eine schwierigere Aufgabe, an der gearbeitet wird. Der Rekord von Microsofts Atom Computing verwendete neutrale Atome, die extrem ausgefeilte Laser-Infrastruktur benötigen, die noch nicht im großen Maßstab existiert. IBMs Heron R2 ist das praktisch am weitesten verbreitete System aus 2024. Es ist in IBMs Quanten-Cloud, Unternehmen führen dort Workloads aus, und der 100-mal-100-Benchmark zeigt nutzbare Ergebnisse. Aber IBMs Starling-Prozessor, das erste vollständig fehlerkorrigierte System, ist erst für 2029 geplant. Was 2024 wirklich bewiesen hat, ist wichtiger als das, was nicht. Das Feld hat aufgehört, sich nur in eine Richtung zu entwickeln, und hat begonnen, in alle Richtungen gleichzeitig voranzukommen — Hardware, Fehlerkorrektur, logische Qubits, Software-Effizienz, kryptografische Standards. Als Forschungsgemeinschaft handelt es sich weniger um theoretische Physik und mehr um ein Ingenieurwesen mit Meilensteinen, die unabhängig überprüfbar und reproduzierbar sind. Die neuesten Durchbrüche im Quantencomputing 2024 waren nicht nur ein Sieg für ein einzelnes Unternehmen. Es war das reife Werden des gesamten Ökosystems gleichzeitig. Betrachtet man die Entwicklung ab 2024, ist die Frage nicht mehr, ob groß angelegtes, fehlerkorrigiertes Quantencomputing möglich ist. Die Durchbrüche 2024 haben gezeigt, dass es mit mehreren Hardware-Ansätzen möglich ist. Die Frage ist jetzt, welcher Ansatz am schnellsten skaliert und wie schnell die Anwendungen, die die Investition rechtfertigen, in den Fokus rücken. Googles nächstes Ziel ist die vollständige fehlerresistente Operation. Microsofts Roadmap zielt auf 50 bis 100 verschränkte logische Qubits in kommerziellen Einsätzen innerhalb der nächsten Jahre — genug für praktische Durchbrüche in Materialwissenschaft oder Chemie, so ihre eigene Einschätzung. IBMs Starling-Prozessor soll die Lücke zwischen Quanten-Nutzen und Quanten-Vorteil für wirtschaftlich relevante Probleme schließen. Die Richtung ab 2024 ist eindeutig. Es geht nicht mehr darum, ob das funktioniert. Es geht darum, welcher Weg gewinnt und wie schnell. Das ist eine ganz andere Diskussion als vor fünf Jahren.
0
0
0
0