Warum glauben manche, dass KI die Welt verändern wird, während andere meinen, es werde alles beim Alten bleiben? Karpathys zwei Diagnosen

ChainNewsAbmedia

OpenAI 創辦團隊成員 und Tesla ehemaliger Leiter für KI Andrej Karpathy hat auf X einen langen Beitrag zum Thema „AI Capability Perception Gap“ veröffentlicht. Darin reagiert er auf ein gesellschaftliches Phänomen: Die Begeisterung für KI ist stark polarisiert – die einen glauben, KI habe die Welt bereits neu geschrieben, die anderen finden, KI könne nur halluzinieren, sei langweilig und werde überbewertet. Karpathy stellt zwei Diagnosen auf und erklärt, warum diese beiden Gruppen „in parallelen Welten“ leben und sich gegenseitig an den jeweils zugrunde liegenden Maßstäben missverstehen. Der Artikel fasst seine Argumentation zusammen und zeigt Implikationen für Tech-Leser in Taiwan.

Diagnose eins: Welche Jahrgangs- und welche Schicht-KI nutzt du?

Karpathys erste Beobachtung ist direkt und treffend: „Viele haben letztes Jahr die kostenlose Version von ChatGPT ausprobiert – und diese eine Erfahrung hat ihre Sicht auf KI dominiert.“ Die Reaktionen dieser Gruppe bestehen typischerweise aus Spott über seltsame Modellreaktionen, Halluzinationen, Ungeschicklichkeit und Weiterleitungen von Videos, in denen OpenAIs „Advanced Voice“-Modus bei einfachen Fragen wie „Soll ich jetzt Auto fahren, um das Auto zu waschen, oder soll ich zu Fuß gehen?“ völlig versagt.

Doch Karpathy weist darauf hin: Diese „Kostenlos-Versionen, Altversionen, Wegwerf-Varianten“-Modelle können die Fähigkeiten der 2026 am weitesten entwickelten agentischen Modelle (insbesondere OpenAI Codex und Claude Code) überhaupt nicht abbilden. Einfach gesagt: Du nimmst ein kostenloses ChatGPT aus 2024, um zu beurteilen, ob KI programmieren kann – so, als würdest du mit einem Nokia E71 aus dem Jahr 2008 prüfen wollen, ob ein Smartphone auch wirklich nutzbar ist.

Für viele taiwanesische Leser ist das ebenfalls eine Realität: ChatGPT Plus für 20 US-Dollar ist noch recht verbreitet, aber nur sehr wenige abonnieren ChatGPT Pro für 200 US-Dollar oder Claude Max für 100 US-Dollar. Wer noch nie agentische Tasks auf den modernsten bezahlten Stufen ausprobiert hat, sieht KI meist als „Spielzeug, das Spaß macht, aber nicht zuverlässig ist“; wer es gemacht hat, sieht KI als „komplette Neuschreibung von Arbeitsabläufen“. Dieselbe Technologie, zwei Welten.

Diagnose zwei: Fortschritt in unterschiedlichen Bereichen ist „asymmetrisch“

Karpathys zweite Diagnose ist noch spannender: „Selbst wenn du für 200 US-Dollar im Monat das modernste Modell nutzt, ist der Fortschritt bei den Fähigkeiten eher ‚spitz‘ – konzentriert auf stark technologische Bereiche.“

Er macht klar: Suche, Schreiben und Empfehlungen – also diese typischen „Abfrage“-Szenarien – sind nicht die Bereiche, in denen KI in den letzten Jahren am stärksten vorangekommen ist. Dafür nennt er zwei Gründe:

Verstärkungslernen (RL) ist abhängig von verifizierbaren Belohnungsfunktionen – beim Programmieren gibt es klare Signale wie „Unit Tests bestehen“, beim Schreiben gibt es keine passende objektive Messgröße. Daher ist die Fortschrittsgeschwindigkeit beim RL sehr unterschiedlich.

Der größte kommerzielle Wert von Unternehmen wie OpenAI und Anthropic liegt in B2B-Programmier-/Forschungs-/Engineering-Szenarien. Daher bündeln sich Ressourcen, Personal und Prioritäten in genau diesen Bereichen – andere Use Cases sind nicht die größten Gewinnquellen.

Diese Beobachtung ist entscheidend – sie erklärt das viel beobachtete Rätsel: Warum können KI-Systeme beim Programmieren so enorm schnell besser werden, während KI beim Schreiben von Artikeln oft weiterhin ziemlich durchschnittlich bleibt. Es liegt nicht daran, dass KI-Firmen es nicht könnten, sondern daran, dass ihre „Goldminen“ woanders liegen und die Aufmerksamkeit dahin abgezogen wurde.

Wer ist am stärksten von „AI Cognitive Shock“ betroffen? Zwei Bedingungen müssen erfüllt sein

Wenn man beide Diagnosen kombiniert, beschreibt Karpathy die Gruppe, die am häufigsten von „AI Cognitive Shock“ getroffen wird – also Menschen, die gleichzeitig beide Bedingungen erfüllen:

Bezahlte Nutzung modernster agentischer Modelle (OpenAI Codex, Claude Code)

Professioneller Einsatz in stark technischen Bereichen (Programmierung, Mathematik, Forschung)

Diese Gruppe ist besonders stark betroffen von der sogenannten „AI Psychosis“ – Karpathys Begriff. Gemeint ist die Situation, in der man selbst sieht, wie LLMs ein ursprünglich mehrere Tage bis mehrere Wochen dauerndes Programmierproblem in wenigen Stunden lösen. Solche Eindrücke von KI-Fähigkeiten und deren „Slope“ (also der Steigung/Veränderungsgeschwindigkeit) führen dazu, dass man eine völlig andere Einschätzung von der technologischen Landschaft der nächsten Jahre bekommt.

Für die andere Gruppe (die nicht bezahlt, nicht in technischen Domänen nutzt) klingt das nach „übertriebener Euphorie“, wie eine typische Fehlinformation aus der „Tech-Szene in sich geschlossenen Kreisen“. Karpathy glaubt jedoch: Das ist kein Mythos, sondern eine echte Bewertung aus eigener Erfahrung.

„Beide Gruppen sprechen jeweils über die Welt der anderen, aber nicht mit der anderen“

Karpathys Kernaussage: „Diese beiden Gruppen reden nicht miteinander, sondern übereinander. Sie reden nicht in Richtung der jeweils anderen Gruppe, sondern in Richtung ihrer eigenen Welt.“ Er beschreibt zwei Dinge, die gleichzeitig wahr sein können:

OpenAIs kostenlose (und nach meiner Ansicht halb verlassene) „Advanced Voice“-Option, die auf Instagram Reels beim Lösen der dümmsten Fragen gründlich danebenliegt

Gleichzeitig das Codex-Modell in der höchsten bezahlten Stufe von OpenAI, das eine Stunde lang kohärent das gesamte codebase umstrukturiert oder Schwachstellen im Computersystem findet und nutzt

Beides ist wahr und steht nicht im Konflikt. Aber jede Gruppe sieht nur einen Teil – und hält die jeweils andere dafür, „zu euphorisch“ oder „zu unwissend“ zu sein. Karpathys Ziel mit diesem Beitrag ist es, diese Lücke zu überbrücken.

Implikationen für taiwanesische Leser: Welche Gruppe bist du?

Karpathys Argumentation ist für taiwanesische Leser besonders relevant, weil der Tech-Diskurs in Taiwan ebenfalls stark polarisiert ist: Die einen sagen „KI hat bereits übernommen“, die anderen „es ist doch nur ein Chatbot“. Wenn du herausfinden willst, zu welcher Gruppe du gehörst, kannst du drei Selbstfragen stellen:

Wie lange ist es her, dass du zuletzt selbst dem modernsten bezahlten Modell Prompts gegeben hast (GPT-5.5 Pro, Claude Opus 4.7)?

Hast du jemals einen agenten länger als 30 Minuten laufen lassen und dabei tatsächlich eine produktionsreife Aufgabe abgeschlossen (Code refactoren, eine Forschungszusammenfassung schreiben, ein komplexes System debuggen)?

Auf welcher Grundlage beurteilst du die Fähigkeiten von KI – aus Medienberichten, aus Community-Memes oder aus eigener Nutzung?

Wer alle drei Fragen mit „Ja, kürzlich, aus eigener Nutzung“ beantwortet, landet in der von Karpathy beschriebenen zweiten Gruppe und versteht tendenziell besser, was er mit „AI Psychosis“ meint. Wer alle drei Fragen mit „Nein, schon lange her, nur aus Medien“ beantwortet, landet eher in der ersten Gruppe und könnte die Geschwindigkeit der KI-Entwicklung massiv unterschätzen.

Das bedeutet nicht, dass eine Gruppe „richtig“ und die andere „falsch“ ist – vielmehr beruhen die Urteile verschiedener Gruppen auf grundlegenden Unterschieden in den Maßstäben. Wenn du den nächsten Artikel mit „KI ist nur eine Blase“ oder „KI ersetzt alle Jobs“ siehst, prüfe zuerst, zu welcher Gruppe der Autor gehört – und entscheide dann, wie du ihn liest.

Ergänzung zu Karpathys „OpenClaw-Moment“

Karpathy ergänzt in späteren Posts: „Jemand hat mir kürzlich gesagt, dass der Grund, warum der OpenClaw-Moment so groß war, darin liegt, dass es sich um eine riesige Gruppe ohne technischen Hintergrund handelt, die zum ersten Mal die modernsten agentischen Modelle aus eigener Erfahrung gesehen hat.“ Diese Beobachtung zeigt: Die kognitive Lücke ist nicht nur eine Differenz im „Ausmaß“, sondern auch ein Unterschied zwischen „eigener Erfahrung“ und „Gerüchten/Secondhand-Erzählungen“.

Für Leser von abmedia ist die praktischste Lösung: Gib 20 US-Dollar aus, abonniere einen Monat ChatGPT Plus oder Claude Pro, nimm dir eine echte Aufgabe, die dich selbst betrifft (schreibe einen Forschungsbericht, erstelle eine Finanzanalyse, debugge ein Programmprojekt), lasse den agent alles vollständig durchlaufen und bewerte danach, was KI für deine Arbeit bedeutet. Das ist nützlicher als 100 Beiträge über KI zu lesen.

Worum geht es in diesem Artikel: Warum denken manche, KI verändert die Welt, während andere sie für normal halten? Karpathys zwei Diagnosen tauchten zuerst in Chain News ABMedia auf.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Cursor nimmt das 60-Milliarden-US-Dollar-Angebot von SpaceX zur Übernahme an, arbeitet aber nicht mit xAI an Codierungs-Modellen zusammen

Laut The Information hat Cursor ein bedingtes 60 Milliarden US-Dollar Übernahmeangebot von SpaceX angenommen, obwohl die Transaktion noch nicht finalisiert wurde. Das Unternehmen hat derzeit keine Pläne, mit der KI-Einheit von SpaceX, xAI, an der Entwicklung von Codierungsmodellen zusammenzuarbeiten. Stattdessen konzentriert sich Cursor darauf, es zu optimieren

GateNews14M her

Haun Ventures schließt am 4. Mai einen 1-Milliarde-US-Dollar-Fonds ab und verteilt das Kapital zwischen frühen und späten Krypto-Investments

Laut Bloomberg hat Haun Ventures am 4. Mai eine Fundraising-Runde in Höhe von 1 Milliarde US-Dollar abgeschlossen. Dabei wurden 500 Millionen US-Dollar für Early-Stage- und 500 Millionen US-Dollar für Late-Stage-Investitionen bereitgestellt. Der Fonds wird das Kapital in den nächsten zwei bis drei Jahren einsetzen und sich dabei auf Krypto- und Blockchain-Startups konzentrieren, während er ausweitet

GateNews37M her

OpenAI erhöht $4 Milliarde für ein Joint Venture zur Projektbereitstellung, bewertet auf 10 Milliarden US-Dollar

Laut BlockBeats hat OpenAI am 4. Mai über $4 Milliarden US-Dollar aufgebracht, um ein neues Joint Venture zu gründen, das Unternehmen dabei helfen soll, seine Software für Künstliche Intelligenz zu übernehmen. Das Venture mit dem Namen The Deployment Company wird von 19 Investoren unterstützt, darunter TPG Inc., Brookfield Asset Management,

GateNews1Std her

Applied Digital sichert sich eine 300-Millionen-US-Dollar-Bridge-Finanzierung an, angeführt von Goldman Sachs, für KI-Datencenter

Laut Globenewswire sicherte sich Applied Digital am 4. Mai eine Finanzierung in Höhe von 300 Millionen US-Dollar für eine vorrangige, durch Sicherheiten abgesicherte Brückenfinanzierung, angeführt von Goldman Sachs, um die Entwicklung seiner KI-Datencenter voranzutreiben. Die Finanzierung ist durch Projektvermögen besichert, kann vorzeitig ohne Vertragsstrafen zurückgezahlt werden, und das Unternehmen plant, die Förderung

GateNews1Std her

Karpathy: „讓 LLM 自己反駁“: Eine 4-Schritte-Methode, um Gedankenverzerrungen mit KI entgegenzuwirken

Der folgende Beitrag fasst Andrej Karpathys Vier-Schritte-Strategie zur „Selbstwiderlegung von LLMs gegenüber ihren eigenen Argumenten“ zusammen: Zuerst mit einem LLM den ersten Entwurf ausarbeiten; dann in einer neuen Unterhaltung das Modell dazu auffordern, Gegenargumente vorzuschlagen und Belege zu liefern; anschließend daraus einen vollständigen Widerlegungstext erstellen; und zuletzt beide Seiten samt der überprüfbaren Beweise gegenüberstellen, damit Menschen entscheiden. Es wird daran erinnert, dass LLMs zu Sycophancy neigen: Zustimmung nicht mit Wahrheit verwechseln, sondern es als Argument-Generator statt als Schiedsrichter für Schlussfolgerungen betrachten; außerdem kann man zwei LLMs gegeneinander debattieren lassen, um Verzerrungen zu reduzieren. Diese Methode ist insbesondere im Content-Creation im Jahr 2026 besonders wertvoll, da sie die kognitive Tiefe erhöht und zu mehr Diversifizierung ohne Gleichförmigkeit beiträgt.

ChainNewsAbmedia1Std her

Sam Altman, Dario Amodei sind beide einfach unerträglich! Die AI-Armageddon-Behauptungen und das Gefühl der relativen Benachteiligung bringen viele US-Bürger dazu, eine Abneigung gegen KI zu entwickeln

Der bekannte Silicon-Valley-Podcast《All-In Podcast》 diskutierte die KI-Branche und machte dabei eine ziemlich zugespitzte Beobachtung: Die Haltung der US-Gesellschaft gegenüber KI kippt ins Negative, und der konkretste Abfluss dieser Stimmung richtet sich gerade gegen die Datenzentren, die KI-Unternehmen derzeit landesweit in großer Zahl errichten. Diese Abneigung könnte unter anderem aus KI-Untergangsszenarien, Existenz- und Arbeitsplatzängsten entstehen – oder aus einer tieferen Unzufriedenheit: Die nächste Welle technologischer Innovation scheint wieder vor allem nur dazu zu führen, dass sich eine kleine Minderheit massiv bereichert, während das Leben der Mehrheit keine klare Verbesserung erfährt. In den USA haben bereits lokale Regierungen Fälle von geplanten Datenzentrumsprojekten gekippt Chamath Palihapitiya sagte in der Sendung, dass die Probleme der KI-Industrie derzeit nicht nur aus Modellwettbewerb, hohen Investitionsausgaben oder einem Mangel an Rechenleistung bestehen, sondern daraus: „Die US-Bevölkerung als Ganzes ist gegenüber KI immer mehr abgeneigt.“ Er führte aus, dass die Ursache dieser Abneigung auch aus KI

ChainNewsAbmedia3Std her
Kommentieren
0/400
Keine Kommentare