
Vitalik Buterin schlägt eine Architektur vor, bei der KI lokal betrieben wird, und betont dabei Privatsphäre, Sicherheit und Selbstsouveränität; außerdem warnt er vor potenziellen Risiken von KI-Agenten.
Der Ethereum-Mitbegründer Vitalik Buterin veröffentlichte am 2. April auf seiner persönlichen Website einen ausführlichen Beitrag und teilte seine KI-Arbeitsumgebung, die er mit Privatsphäre, Sicherheit und Selbstsouveränität als Kern entworfen hat: — alle LLM-Schlussfolgerungen werden lokal ausgeführt, alle Dateien werden lokal gespeichert, und alles ist umfassend sandboxed; bewusst wird dabei Cloud-Modelle und externe APIs umgangen.
Zu Beginn des Artikels warnt er zuerst: „Bitte kopieren Sie nicht direkt die Tools und Technologien, die in diesem Artikel beschrieben werden, und nehmen Sie nicht an, dass sie sicher sind. Das ist nur ein Ausgangspunkt, keine Beschreibung eines fertigen Produkts.“
Warum schreibt er das jetzt? Sicherheitsprobleme bei KI-Agenten werden massiv unterschätzt
Vitalik weist darauf hin, dass sich die KI in diesem frühen Jahr von „Chatbots“ zu einer bedeutenden Transformation hin zu „Agenten“ entwickelt hat – du stellst nicht mehr nur Fragen, sondern übergibst Aufgaben, sodass die KI lange Zeit nachdenkt und hunderte Tools aufruft, um sie auszuführen. Er nennt hierfür OpenClaw (derzeit das am schnellsten wachsende Repo in der Geschichte von GitHub) und listet zugleich mehrere Sicherheitsprobleme auf, die von Forschern dokumentiert wurden:
- KI-Agenten können kritische Einstellungen ändern, ohne dass eine manuelle Bestätigung erforderlich ist, darunter das Hinzufügen neuer Kommunikationskanäle und das Ändern von System-Prompts
- Das Parsen jeglicher bösartiger externer Eingaben (z. B. bösartige Webseiten) kann dazu führen, dass der Agent vollständig übernommen wird; in einer Demo von HiddenLayer haben Forschende der KI das Zusammenfassen einer Reihe von Webseiten veranlasst, wobei auf einer Seite ein bösartiger Befehl verborgen war, der den Agenten anweist, ein Shell-Skript herunterzuladen und auszuführen
- Bestimmte Drittanbieter-Skill-Pakete (skills) führen stillen Datenabfluss aus und senden Daten per curl an externe Server, die unter der Kontrolle des Skill-Autors stehen
- In den von ihnen analysierten Skill-Paketen enthalten etwa 15% bösartige Anweisungen
Vitalik betont, dass sein Ansatz zur Privatsphäre sich von dem traditioneller Sicherheitsforscher unterscheidet: „Ich komme aus einer Position, in der es mich tief beunruhigt, wenn das komplette persönliche Leben an eine Cloud-KI verfüttert wird – genau in dem Moment, in dem Ende-zu-Ende-Verschlüsselung und lokal-priorisierte Software endlich Mainstream werden und wir einen Schritt nach vorn machen, könnten wir stattdessen zehn Schritte zurückgehen.“
Fünf Ziele für die Sicherheit
Er setzt einen klaren Rahmen für Sicherheitsziele:
- LLM-Privatsphäre: In Situationen mit personenbezogenen Daten so weit wie möglich den Einsatz von Remote-Modellen minimieren
- Andere Privatsphäre: Minimieren der Datenabflüsse, die nicht vom LLM stammen (z. B. Suchanfragen, andere Online-APIs)
- LLM-Escape: Verhindern, dass externe Inhalte „in mein LLM eindringen“ und es dazu bringen, gegen meine Interessen zu handeln (z. B. das Senden meiner Tokens oder privater Daten)
- LLM-unbeabsichtigt: Verhindern, dass das LLM versehentlich private Daten an den falschen Kanal sendet oder ins Internet veröffentlicht
- LLM-Backdoor: Verhindern, dass versteckte Mechanismen, die gezielt in ein Modell trainiert wurden, zum Einsatz kommen. Er erinnert besonders daran: Offene Modelle sind offene Gewichte (open-weights); fast keines ist wirklich Open Source (open-source)
Hardware-Auswahl: 5090-Laptop schlägt DGX Spark aus, enttäuschend
Vitalik hat drei lokale Inferenz-Hardware-Konfigurationen getestet. Hauptsächlich nutzt er das Qwen3.5:35B-Modell, kombiniert mit llama-server und llama-swap:
| Hardware |
Qwen3.5 35B(tokens/sec) |
Qwen3.5 122B(tokens/sec) |
| NVIDIA 5090 Laptop (24GB VRAM) |
90 |
nicht ausführbar |
| AMD Ryzen AI Max Pro (128GB einheitlicher Speicher, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
Sein Fazit ist: Unter 50 tok/sec ist zu langsam, 90 tok/sec ist ideal. Das NVIDIA 5090 Laptop fühlt sich am reibungslosesten an; AMD hat aktuell noch mehr Randprobleme, aber in Zukunft ist eine Verbesserung zu erwarten. Ein High-End MacBook ist ebenfalls eine sinnvolle Option, aber er hat es persönlich nicht ausprobiert.
Über den DGX Spark sagt er ganz unverblümt: „Als ‚Desktop-AI-Supercomputer‘ beschrieben, aber in der Praxis ist tokens/sec niedriger als bei dem besseren Laptop-GPU, und dann muss man auch noch zusätzliche Dinge wie die Netzwerkanbindung klären – das ist ziemlich mies.“ Sein Vorschlag lautet: Wenn man sich kein High-End-Laptop leisten kann, sollte man sich mit Freunden gemeinsam ein ausreichend leistungsstarkes Gerät anschaffen, es an einem Ort mit einer festen IP aufstellen und dann per Remote-Verbindung gemeinsam nutzen.
Warum die Datenschutzprobleme lokaler KI dringlicher sind, als du denkst
Der Artikel von Vitalik steht in interessanter Korrespondenz mit der am selben Tag veröffentlichten Diskussion über Sicherheitsprobleme bei Claude Code – während KI-Agenten in tägliche Entwicklungs-Workflows einziehen, werden Sicherheitsprobleme gerade von theoretischen Risiken zu realen Bedrohungen.
Seine Kernbotschaft ist sehr klar: In dem Moment, in dem KI-Tools immer stärker werden und immer besser auf deine personenbezogenen Daten und Systemberechtigungen zugreifen können, sind „lokal priorisiert, sandboxed, minimaler Vertrauensansatz“ keine Paranoia, sondern ein rationaler Ausgangspunkt.
- Dieser Artikel wurde mit Genehmigung nachgedruckt aus: „Kettennachrichten“《鏈新聞》
- Originaltitel: „Vitalik: Wie ich eine vollständig lokale, private und selbstbestimmte KI-Arbeitsumgebung aufbaue“
- Originalautor: Elponcrab
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Japans Tech-Titanen haben sich gerade zusammengeschlossen, um eine KI mit Billionen-Parametern zu bauen – und sie ist nicht dafür da, um zu chatten
Kurz gesagt
SoftBank, NEC, Honda und Sony haben jeweils über 10% an einer neuen KI-Entwicklungsfirma übernommen; dazu kamen große Banken und Stahlhersteller.
Das Modell mit einer Billion Parametern des Unternehmens zielt auf Physical AI ab—Roboter, autonome Fahrzeuge und Industrieanlagen—nicht auf konversationelle Chatbots.
Japans Regierung NE
Decrypt2Std her
Der größte Müllanleihen-Investor der Welt hat es auch nicht richtig gesehen! Nachdem Howard Marks Claude ausprobiert hat, gab er zu, den KI-Boom falsch eingeschätzt zu haben
Howard Marks hat in einer Notiz seine Sicht auf Künstliche Intelligenz (KI) revidiert, räumt ein, dass er ihr Potenzial in der Vergangenheit unterschätzt hat, und betont, dass KI nicht nur ein Anlage-Theme ist, sondern auch die Art und Weise verändert, wie Unternehmen arbeiten. Seine Meinungsänderung ist für die Kreditmärkte von großer Bedeutung: Er hebt den Zusammenhang zwischen einem Schuldenwachstum und KI hervor und erinnert den Markt daran, vor einer angemessenen Bewertung der betreffenden Vermögenswerte aufmerksam zu sein. Nachdem er mithilfe von KI-Tools Analysen durchgeführt hatte, erkannte er, dass KI zu einer zentralen Veränderung für Produktivität und Arbeitskräfte werden wird.
ChainNewsAbmedia2Std her
Claude-Mythos: Bedroht er die finanzielle Sicherheit? US-Finanzminister und Fed-Vorsitzender warnen in einer Notfallsitzung vor Risiken
Der US-Finanzminister und der Vorsitzende der Federal Reserve haben Führungskräfte an der Wall Street einberufen und gewarnt, dass das KI-Modell Mythos ein systemisches Risiko für das Finanzsystem darstellen könnte. Mythos kann eigenständig eine große Anzahl von Schwachstellen entdecken; Anthropic hat sich dafür entschieden, seine öffentliche Veröffentlichung einzuschränken, und hat das „Glass-Wing-Programm“ gestartet, um die Cybersicherheit zu stärken.
CryptoCity3Std her
Google bringt Gemini Robotics ER 1.6 heraus: SOTA-Roboter-Modell, stark in visueller und räumlicher Schlussfolgerung
Google DeepMind bringt Gemini Robotics ER 1.6 heraus, ein robotisches Modell für verkörperte Schlussfolgerungen, das visuelle und räumliche Denkfähigkeiten in den Mittelpunkt stellt und die Nutzung über die Gemini-API durch die Bereitstellung erleichtert, wodurch die Einstiegshürde für Entwickler gesenkt wird. Dieses Modell kann die Umgebung präzise verstehen und komplexe Aufgaben bewältigen, was Googles kontinuierlichen Fortschritt im Bereich der Robotik-KI zeigt.
ChainNewsAbmedia3Std her
2026 US-Präsidentschaftswirtschaftsbericht: Rückblick auf die Schwankungen von 2025 und Prognose eines stabilen Wachstums in den kommenden zehn Jahren
Bericht des Wirtschaftsrats des Weißen Hauses zur Analyse der US-Wirtschaft im Jahr 2025: Unter dem Einfluss von politischen Anpassungen beträgt die reale BIP-Wachstumsrate 2,0 %. Obwohl es kurzfristig zu Schwankungen kommt, wird prognostiziert, dass das Wachstum in den kommenden zehn Jahren im Durchschnitt 3,0 % betragen wird. Die Bereitstellung von künstlicher Intelligenz und das große sowie das amerikanisch-französische Gesetz werden zu den wichtigsten wirtschaftlichen Wachstumsmotoren werden, während die Erwartungen für Inflation und Zinssätze stabil bleiben.
ChainNewsAbmedia6Std her