Ursprünglicher Autor: Jane Doe, Chen Li
Quelle: Youbi Capital
Der Schnittpunkt von KI und Krypto
Am 23. Mai veröffentlichte der Chip-Gigant Nvidia den Finanzbericht für das erste Quartal des Geschäftsjahres 2025. Der Bericht zeigt, dass Nvidias Umsatz im ersten Quartal bei 26 Milliarden US-Dollar lag. Der Umsatz im Rechenzentrum stieg im Vergleich zum Vorjahr um erstaunliche 427% auf 22,6 Milliarden US-Dollar. Nvidias finanzielle Leistung, die dazu beigetragen hat, den US-Aktienmarkt zu retten, spiegelt den exponentiellen Anstieg des Rechenleistungsbedarfs wider, der durch den Wettbewerb der globalen Technologieunternehmen im Bereich der KI ausgelöst wurde. Je führender das Technologieunternehmen ist, desto größer ist sein Ehrgeiz, im Bereich der KI-Entwicklung zu punkten. Entsprechend wächst auch der Bedarf an Rechenleistung dieser Unternehmen exponentiell. Laut TrendForce werden die vier wichtigsten US-Cloud-Service-Anbieter - Microsoft, Google, AWS und Meta - im Jahr 2024 voraussichtlich mehr als 60% der weltweiten Nachfrage nach High-End-KI-Servern ausmachen, wobei der Anteil von Microsoft 20,2%, Google 16,6%, AWS 16% und Meta 10,8% beträgt.
![生于边缘:去中心化算力网络如何赋能Crypto与AI?]()
Bildquelle:
“Chipmangel” hat sich in den letzten Jahren zu einem Schlagwort des Jahres entwickelt. Einerseits erfordern das Training und die Inferenz von großen Sprachmodellen (LLMs) viel Rechenleistung Unterstützung; Und mit der Iteration des Modells steigen die Kosten und der Bedarf an Rechenleistung exponentiell. Auf der anderen Seite werden große Unternehmen wie Meta riesige Mengen an Chips kaufen, und die weltweiten Ressourcen der Rechenleistung sind auf diese Technologiegiganten ausgerichtet, was es für kleine Unternehmen immer schwieriger macht, die benötigten Rechenleistung zu erhalten. Das Dilemma, mit dem kleine Unternehmen konfrontiert sind, ergibt sich nicht nur aus dem unzureichenden Angebot an Chips aufgrund der steigenden Nachfrage, sondern auch aus dem strukturellen Widerspruch des Angebots. **Derzeit gibt es noch eine große Anzahl von ungenutzten GPUs auf der Angebotsseite, z. B. haben einige Rechenzentren eine große Anzahl von ungenutzten Rechenleistung (die Auslastung beträgt nur 12 % – 18 %), und ein großer Teil Rechenleistung Ressourcen ist aufgrund der Gewinnminderung im Verschlüsselung Mining ungenutzt. **Obwohl nicht alle diese Rechenleistungen für professionelle Anwendungsszenarien wie KI-Training geeignet sind, kann Hardware für Verbraucher in anderen Bereichen wie KI-Inferenz, Cloud-Game-Rendering, Cloud-Telefonen und anderen Bereichen eine große Rolle spielen. Die Möglichkeit, diesen Teil der Rechenleistung zu integrieren und zu nutzen, ist enorm. **
Nach drei Jahren des Schweigens auf dem Verschlüsselung Markt hat eine weitere Runde Bull Market endlich begonnen, wobei Bitcoin Preise neue Höchststände erreichen und nacheinander verschiedene Memecoins auftauchen. ** Obwohl KI und Krypto seit vielen Jahren als Schlagwort beliebt sind, sind künstliche Intelligenz und Blockchain als zwei wichtige Technologien wie zwei parallele Linien, und sie haben seit Long keine “Schnittstelle” gefunden. Anfang dieses Jahres veröffentlichte Vitalik einen Artikel mit dem Titel “Das Versprechen und die Herausforderungen von Krypto + KI-Anwendungen”, in dem er die Zukunft von KI und Krypto zusammen diskutierte. Vitalik erwähnte in dem Artikel sehnsüchtige Ideen, darunter Training und Inferenz, die Verschlüsselung Technologien wie Blockchain und MPC verwenden, um KI zu dezentralisieren, die Blackbox des maschinellen Lernens zu öffnen und KI-Modelle vertrauenswürdiger zu machen. Bis diese Visionen verwirklicht werden, ist es noch ein Long Weg. Aber einer der von Vitalik erwähnten Anwendungsfälle, die Nutzung der wirtschaftlichen Anreize von Krypto, um KI anzutreiben, ist auch eine wichtige Richtung, die in Short erreicht werden kann. Dezentralisierung Rechenleistung Netzwerk ist in dieser Phase eines der am besten geeigneten Szenarien für KI + Krypto. **
2 Dezentralisierung Rechenleistung Netzwerk
Derzeit gibt es viele Projekte, die sich auf dezentrale Rechenleistungsnetzwerke konzentrieren. Die zugrunde liegende Logik dieser Projekte kann wie folgt zusammengefasst werden: Die Verwendung von Token zur Anreizierung von Rechenleistungsinhabern zur Bereitstellung von Rechenleistungsdiensten im Netzwerk. Diese verstreuten Rechenleistungsressourcen können zu einem dezentralen Rechenleistungsnetzwerk mit einer gewissen Größe zusammengeführt werden. Dadurch kann die Nutzung ungenutzter Rechenleistung erhöht und die Rechenleistungsanforderungen der Kunden zu geringeren Kosten erfüllt werden, was zu einer Win-Win-Situation für Käufer und Verkäufer führt.
Um den Lesern in kurzer Zeit ein umfassendes Verständnis dieser Strecke zu vermitteln, wird dieser Artikel die konkreten Projekte und die gesamte Strecke aus mikroskopischer und makroskopischer Sicht dekonstruieren, um den Lesern eine Analyseperspektive zu bieten, um den Kernwettbewerbsvorteil jedes Projekts und die Entwicklung der dezentralen Rechenleistung auf der Strecke zu verstehen. Der Autor wird fünf Projekte vorstellen und analysieren: Aethir, io.net, Render Network, Akash Network, Gensyn, und eine Zusammenfassung und Bewertung der Projektsituation und der Streckenentwicklung geben.
Von einem analytischen Rahmen aus können wir, wenn wir uns auf ein spezifisches dezentralisiertes Rechenleistungsnetzwerk konzentrieren, es in vier Kernkomponenten zerlegen:
- Hardwarenetzwerk: Es integriert verteilte Rechenleistungsressourcen und ermöglicht deren gemeinsame Nutzung und Lastverteilung über Knotenpunkte auf der ganzen Welt. Es ist die Grundlage für ein dezentralisiertes Rechenleistungsnetzwerk.
- Bilateraler Markt: Durch angemessene Preisgestaltung und Entdeckungsmechanismen werden die Rechenleistungserbringer und -nachfrager zusammengeführt, um eine sichere Handelsplattform zu bieten und sicherzustellen, dass die Transaktionen zwischen Angebot und Nachfrage transparent, fair und vertrauenswürdig sind.
- Konsens-Mechanismus : Wird verwendet, um sicherzustellen, dass die Knoten im Netzwerk ordnungsgemäß ausgeführt werden und ihre Arbeit erledigen. Der Konsens-Mechanismus wird hauptsächlich zur Überwachung von zwei Ebenen eingesetzt: 1) Überwachung, ob die Knoten online und im aktiven Zustand sind, um jederzeit Aufgaben entgegennehmen zu können; 2) Nachweis der Arbeitsleistung der Knoten: Der Knoten hat nach Erhalt der Aufgabe die Aufgabe wirksam und korrekt erledigt, ohne dass die Rechenleistung für andere Zwecke verwendet wurde, die Prozesse und Threads blockiert haben.
- Tokenanreize: Das Tokenmodell wird verwendet, um mehr Teilnehmer zur Bereitstellung/Nutzung von Diensten zu motivieren und diesen Netzwerkeffekt mit Token zu erfassen, um eine gemeinsame Gewinnbeteiligung in der Community zu erreichen.
Wenn man den gesamten Dezentralisierung Rechenleistungspfad aus der Vogelperspektive betrachtet, bietet der Forschungsbericht von Blockworks Research einen guten Analyserahmen, um die Projektposition in diesem Pfad in drei verschiedene Schichten zu unterteilen.
- Bare metal layer: Die Bare-Metal-Schicht ist die Grundlage des dezentralen Berechnungsstapels. Ihre Hauptaufgabe besteht darin, Rohleistungsressourcen zu sammeln und sie über API aufrufbar zu machen.
- Orchestration layer: Die Orchestrierungsschicht, die die Zwischenschicht des dezentralen Berechnungsstapels bildet, hat hauptsächlich die Aufgabe der Koordination und Abstraktion und ist für die Planung, Erweiterung, Operation, Lastausgleich und Fehlerbehebung der Rechenleistung verantwortlich. Die Hauptfunktion besteht darin, die Komplexität des Hardware-Managements auf unterster Ebene “abstrakt” zu gestalten und den Endbenutzern eine fortschrittlichere Benutzeroberfläche für bestimmte Kundengruppen bereitzustellen.
- Aggregationsschicht: Die oberste Schicht des dezentralisierten Rechenstapels, deren Hauptaufgabe darin besteht, Integrationen bereitzustellen. Sie bietet eine einheitliche Schnittstelle, mit der Benutzer verschiedene Berechnungsaufgaben an einem Ort durchführen können, wie zum Beispiel KI-Training, Rendering, zkML usw. Es handelt sich im Wesentlichen um eine Orchestrierungs- und Verteilungsschicht für mehrere dezentralisierte Rechenleistungen.
![生于边缘:去中心化算力网络如何赋能Crypto与AI?]()
Bildquelle: Youbi Capital
Basierend auf diesen beiden Analyserahmen werden wir einen horizontalen Vergleich der ausgewählten fünf Projekte durchführen und sie anhand von vier Aspekten - Kerngeschäft, Marktpositionierung, Hardwareausstattung und finanzielle Leistung bewerten.
![生于边缘:去中心化算力网络如何赋能Crypto与AI?]()
2.1 Kerngeschäft
Vom Standpunkt der Grundlogik aus gesehen ist das dezentralisierte Rechenleistungsnetzwerk hochgradig homogen, da es Token verwendet, um ungenutzte Rechenleistungsinhaber zur Bereitstellung von Rechenleistungsdiensten zu motivieren. Basierend auf dieser Grundlogik können wir die Unterschiede im Kerngeschäft des Projekts aus drei Aspekten verstehen:
- Quelle für ungenutzte Rechenleistung:
- Auf dem Markt gibt es hauptsächlich zwei Quellen für ungenutzte Rechenleistung: 1) ungenutzte Rechenleistung in den Händen von Unternehmen wie Rechenzentren und Bergleuten; 2) ungenutzte Rechenleistung in den Händen von Einzelhändlern. Die Rechenleistung im Rechenzentrum besteht in der Regel aus professioneller Hardware, während Einzelhändler in der Regel Consumer-Chips kaufen.
- Die Rechenleistung von Aethir, Akash Network und Gensyn wird hauptsächlich von Unternehmen gesammelt. Der Vorteil der Sammlung von Rechenleistung von Unternehmen besteht darin, dass 1) Unternehmen und Rechenzentren in der Regel qualitativ hochwertigere Hardware und professionelle Wartungsteams besitzen, was zu einer höheren Leistung und Zuverlässigkeit der Rechenressourcen führt; 2) Die Rechenressourcen von Unternehmen und Rechenzentren sind oft homogener und die zentrale Verwaltung und Überwachung macht die Ressourcenplanung und Wartung effizienter. Diese Methode erfordert jedoch höhere Anforderungen an das Projektteam, da es geschäftliche Beziehungen zu Unternehmen haben muss, die über Rechenleistung verfügen. Gleichzeitig wird die Skalierbarkeit und Dezentralisierung in gewissem Maße beeinträchtigt.
- Render Network und io.net zielen hauptsächlich darauf ab, Kleinanlegern Anreize zu bieten, ihre ungenutzte Rechenleistung zur Verfügung zu stellen. Der Vorteil der Nutzung der Rechenleistung von Kleinanlegern besteht darin: 1) Die ungenutzte Rechenleistung von Kleinanlegern hat niedrigere explizite Kosten und kann kostengünstigere Rechenressourcen bereitstellen; 2) Das Netzwerk ist skalierbarer und dezentralisierter, was die Elastizität und Robustheit des Systems erhöht. Der Nachteil besteht darin, dass die Ressourcen von Kleinanlegern weit verbreitet und uneinheitlich sind, was die Verwaltung und Planung komplexer macht und den Betrieb erschwert. Darüber hinaus ist es schwieriger, anfängliche Netzwerkeffekte zu erzielen, indem man sich auf die Rechenleistung von Kleinanlegern verlässt (schwieriger, einen Kickstart durchzuführen). Schließlich bestehen bei den Geräten der Kleinanleger möglicherweise größere Sicherheitsrisiken, die zu Datenlecks und Missbrauch der Rechenleistung führen können.
- Rechenleistung Verbraucher
- Für die Verbraucher von Rechenleistung sind Aethir, io.net und Gensyn hauptsächlich auf Unternehmen ausgerichtet. Für B2B-Kunden besteht ein hoher Bedarf an hochleistungsfähiger Berechnung für KI und Echtzeit-Rendering von Spielen. Diese Workloads haben einen sehr hohen Anforderungsgrad an die Rechenleistungsressourcen und erfordern in der Regel High-End-GPUs oder professionelle Hardware. Darüber hinaus legen B2B-Kunden großen Wert auf die Stabilität und Zuverlässigkeit der Rechenleistungsressourcen. Daher müssen qualitativ hochwertige Service Level Agreements bereitgestellt werden, um einen reibungslosen Projektablauf und rechtzeitigen technischen Support zu gewährleisten. Gleichzeitig sind die Migrationskosten für B2B-Kunden sehr hoch. Wenn es kein ausgereiftes SDK für dezentrale Netzwerke gibt, mit dem Projektparteien schnell bereitgestellt werden können (zum Beispiel erfordert Akash Network, dass Benutzer auf der Grundlage eines Remote-Ports entwickeln), ist es sehr schwierig, Kunden zur Migration zu bewegen. Es besteht nur eine geringe Bereitschaft zur Migration, es sei denn, es besteht ein deutlicher Preisvorteil.
- Render Network und Akash Network bieten hauptsächlich Rechenleistungsdienste für Endbenutzer an. Sie sollen eine einfache und benutzerfreundliche Oberfläche und Tools für Endbenutzer bereitstellen, um ein gutes Benutzererlebnis zu ermöglichen. Da Endbenutzer preissensibel sind, muss das Projekt wettbewerbsfähige Preise anbieten.
- Gängige Hardware-Ressourcen für Berechnungen umfassen CPU, FPGA, GPU, ASIC und SoC. Diese Hardware unterscheiden sich signifikant in Designzielen, Leistungsmerkmalen und Anwendungsbereichen. Zusammenfassend ist die CPU besser für allgemeine Berechnungsaufgaben geeignet, FPGA ist aufgrund seiner hohen Parallelverarbeitungsfähigkeit und Programmierbarkeit vorteilhaft, GPU zeigt sich bei parallelen Berechnungen hervorragend, ASIC ist bei spezifischen Aufgaben am effizientesten und SoC integriert mehrere Funktionen in einem, was für hochintegrierte Anwendungen geeignet ist. Die Wahl der Hardware hängt von den Anforderungen, Leistungsanforderungen und Kostenerwägungen der spezifischen Anwendung ab. Die dezentralisierten Rechenleistungsprojekte, die wir diskutieren, sammeln hauptsächlich GPU-Rechenleistung, dies wird durch den Projekttyp und die Eigenschaften der GPU bestimmt. Denn die GPU hat einzigartige Vorteile bei der AI-Training, parallelen Berechnung, Multimedia-Rendering usw.
- Obwohl die meisten dieser Projekte die Integration von GPUs beinhalten, haben unterschiedliche Anwendungen unterschiedliche Anforderungen an die Hardware-Spezifikationen, weshalb diese Hardware heterogen optimierte Kerne und Parameter aufweisen. Diese Parameter umfassen Parallelität/Serielle Abhängigkeiten, Speicher, Latenzzeit usw. Zum Beispiel ist die Rendering-Arbeitslast tatsächlich besser für Consumer-GPUs geeignet und nicht für leistungsstärkere Data-Center-GPUs, da Rendering hohe Anforderungen an Dinge wie Raytracing stellt. Consumer-Chips wie der 4090 s haben beispielsweise verstärkte RT-Kerne, die speziell für Raytracing-Aufgaben optimiert sind. AI-Training und Inferenz erfordern hingegen professionelle GPUs. Daher kann das Render Network RTX 3090 s und 4090 s sowie andere Consumer-GPUs von Einzelhändlern sammeln, während IO.NET mehr professionelle GPUs wie H 100 s, A 100 s usw. benötigt, um die Anforderungen von KI-Startups zu erfüllen.
2.2 Marktpositionierung
In Bezug auf die Positionierung des Projekts haben die Bare-Metal-Schicht, die Orchestrierungsschicht und die Aggregationsschicht unterschiedliche Kernprobleme, Optimierungsschwerpunkte und Fähigkeiten zur Wertschöpfung.
- Die Bare-Metal-Schicht konzentriert sich auf die Sammlung und Nutzung physischer Ressourcen, die Orchestrierungsschicht konzentriert sich auf die Planung und Optimierung der Rechenleistung und entwirft die physische Hardware so, dass sie den Anforderungen der Kunden optimal entspricht. Die Aggregations-Schicht ist allgemein gehalten und konzentriert sich auf die Integration und Abstraktion verschiedener Ressourcen. Aus der Wertschöpfungskette heraus sollten alle Projekte von der Bare-Metal-Schicht aus beginnen und sich nach oben hin entwickeln.
- **Vom Standpunkt der Wertschöpfung aus gesehen hat die Fähigkeit zur Wertschöpfung von der Bare-Metal-Ebene über die Orchestrierungsebene bis hin zur Aggregationsebene schichtweise zugenommen.**Die Aggregationsebene kann den größten Wert erfassen, weil die Aggregationsplattform die größten Netzwerkeffekte erzielen und direkt die meisten Benutzer erreichen kann, was einem Eingang für den dezentralisierten Netzwerkverkehr entspricht und somit die höchste Wertschöpfungsposition im gesamten Stack für die Verwaltung von Rechenleistung einnimmt.
- Entsprechend ist es auch am schwierigsten, eine Aggregationsplattform aufzubauen. Das Projekt muss eine Vielzahl von Problemen ganzheitlich lösen, darunter die Komplexität der Technologie, das Management heterogener Ressourcen, die Zuverlässigkeit und Skalierbarkeit des Systems, die Realisierung des Netzwerkeffekts, Sicherheit und Datenschutz sowie komplexe Betriebsführung. Diese Herausforderungen sind nicht förderlich für den Kaltstart des Projekts und hängen von der Entwicklungssituation und dem Timing des Wettbewerbs ab.Es ist nicht sehr realistisch, eine Aggregationsschicht zu schaffen, solange die Orchestrierungsebene noch nicht eine bestimmte Marktanteil erreicht hat.
- Derzeit gehören Aethir, Render Network, Akash Network und Gensyn zur Orchestrationsschicht und bieten Dienstleistungen für bestimmte Ziele und Zielgruppen an. Aethir konzentriert sich derzeit auf Echtzeit-Rendering für Cloud-Gaming und bietet B2B-Kunden Entwicklungsumgebungen und Tools an. Render Network ist auf Video-Rendering spezialisiert, Akash Network betreibt eine Handelsplattform ähnlich wie Taobao und Gensyn widmet sich dem Bereich KI-Training. Die Positionierung von io.net ist die Aggregationsschicht, obwohl die Funktionalität, die io derzeit implementiert hat, noch weit von der vollen Funktionalität einer Aggregationsschicht entfernt ist. Obwohl bereits Hardware von Render Network und Filecoin gesammelt wurde, ist die Abstraktion und Integration der Hardwareressourcen noch nicht abgeschlossen.
2.3 Hardwareeinrichtungen
- Derzeit haben nicht alle Projekte detaillierte Netzwerkdaten veröffentlicht. Im Vergleich dazu bietet der io.net Explorer die beste Benutzeroberfläche, auf der GPU/CPU-Anzahl, -Typen, -Preise, -Verteilung, -Netzwerkauslastung, -Nodeneinnahmen usw. angezeigt werden können. Ende April wurde jedoch das Front-End von io.net angegriffen, da io PUT/POST-Schnittstellen nicht authentifiziert hat, wodurch Hacker die Front-End-Daten manipuliert haben. Dies sollte auch für die Privatsphäre und die Zuverlässigkeit der Netzwerkdaten anderer Projekte ein Warnsignal sein.
- In Bezug auf die Anzahl der GPUs und Modelle sollte die Hardware, die von io.net als Aggregationsschicht gesammelt wird, am umfangreichsten sein. Aethir folgt knapp dahinter, während die Hardware-Situation anderer Projekte nicht so transparent ist. Anhand der GPU-Modelle ist zu erkennen, dass io sowohl professionelle GPUs wie A 100 als auch Consumer-GPUs wie 4090 besitzt. Die Vielfalt der Modelle entspricht der Positionierung von io.net Aggregation. io kann je nach konkreten Aufgabenanforderungen die geeignetste GPU auswählen. Allerdings erfordern unterschiedliche Modelle und Marken von GPUs möglicherweise unterschiedliche Treiber und Konfigurationen, und die Software muss auch aufwendig optimiert werden, was die Komplexität von Management und Wartung erhöht. Derzeit hängt die Zuweisung der verschiedenen Aufgaben bei io hauptsächlich von der autonomen Auswahl der Benutzer ab.
- Aethir hat seine eigene Mining Rig veröffentlicht, und im Mai wurde Aethir Edge, das von Qualcomm unterstützte Forschungs- und Entwicklungsteam, offiziell eingeführt. Es wird die herkömmliche zentrale GPU-Cluster-Bereitstellung, die weit entfernt vom Benutzer liegt, durchbrechen und die Rechenleistung an den Rand verlagern. Aethir Edge wird die Cluster-Rechenleistung von H 100 kombinieren, um gemeinsam AI-Szenarien zu bedienen. Es kann trainierte Modelle bereitstellen, um Benutzern Inferenzberechnungsdienste zu optimalen Kosten anzubieten. Dieser Ansatz ist benutzernäher, schneller und bietet ein besseres Preis-Leistungs-Verhältnis.
- In Bezug auf Angebot und Nachfrage, zum Beispiel Akash Network, zeigen die Statistiken, dass die Gesamt-CPU-Leistung etwa 16 k beträgt und die Anzahl der GPUs 378 beträgt. Gemäß den Anforderungen der Netzwerkvermietung beträgt die Nutzung der CPU und GPU jeweils 11,1% bzw. 19,3%. Insbesondere die Vermietungsrate der professionellen GPU H 100 ist recht hoch, während die meisten anderen Modelle weitgehend ungenutzt sind. Die Situation in anderen Netzwerken ist im Großen und Ganzen ähnlich wie bei Akash: Die Gesamtnachfrage nach Netzwerkressourcen ist nicht hoch, abgesehen von beliebten Chips wie A 100, H 100 usw., sind die meisten Rechenleistungen weitgehend ungenutzt.
- Vom Preisvorteil her gesehen, ist im Vergleich zu anderen traditionellen Dienstleistern der Kostenvorteil im Gegensatz zu den Cloud-Computing-Marktführern nicht herausragend.
![生于边缘:去中心化算力网络如何赋能Crypto与AI?]()
2.4 Finanzleistung
Egal wie das Token-Modell gestaltet ist, eine gesunde Tokenomics muss folgende grundlegende Bedingungen erfüllen: 1) Die Nachfrage der Benutzer nach dem Netzwerk muss sich im Münzpreis widerspiegeln, was bedeutet, dass Token einen Wert erfassen können; 2) Alle Beteiligten, sei es Entwickler, Knotenpunkte oder Benutzer, müssen langfristig gerecht belohnt werden; 3) Sicherstellung einer dezentralisierten Governance, um zu vermeiden, dass interne Personen zu viel besitzen; 4) Angemessene Inflations- und Deflationsmechanismen sowie Token-Freigabezyklen, um die Stabilität und Nachhaltigkeit des Netzwerks vor starken Preisschwankungen zu schützen.
- Wenn das Tokenmodell grob in BME (Burn and Mint Equilibrium) und SFA (Stake for Access) unterteilt wird, kommen die Deflationsdruckquellen dieser beiden Modelle aus unterschiedlichen Quellen: Das BME-Modell verbrennt Tokens, wenn Benutzer Dienstleistungen kaufen, daher wird der Deflationsdruck des Systems durch die Nachfrage bestimmt. SFA hingegen erfordert, dass Dienstleister/Nodes Tokens staken, um die Berechtigung zur Erbringung von Dienstleistungen zu erhalten. Daher entsteht der Deflationsdruck durch das Angebot. Der Vorteil des BME-Modells besteht darin, dass es besser für nicht standardisierte Waren geeignet ist. Wenn die Nachfrage im Netzwerk jedoch nicht ausreicht, kann es weiterhin Inflationsdruck ausgesetzt sein. Die Tokenmodelle der verschiedenen Projekte unterscheiden sich in den Details, aber insgesamt neigt Aethir eher zu SFA, während io.net, Render Network und Akash Network eher zu BME tendieren, Gensyn ist noch unbekannt.
- In terms of revenue, the demand for the network will be directly reflected in the overall revenue of the network (we will not discuss the income of miners here, because miners not only receive rewards for completing tasks, but also subsidies from the project). Based on publicly available data, the value of io.net is the highest. Although Aethir’s revenue has not been announced yet, from publicly available information, they have announced that they have signed orders with many B-side customers.
- In terms of coin price, only Render Network and Akash Network have conducted ICOs so far. Aethir and io.net have also recently issued coins, and their price performance needs to be observed further, and will not be discussed here. Gensyn’s plan is not clear yet. Overall, in addition to the two projects that issued coins and the projects that have already issued coins in the same track but are not included in the scope of this article, decentralized computing power networks have very impressive price performance, to a certain extent reflecting the huge market potential and high expectations of the community.
2.5 Zusammenfassung
- Dezentralisierte Rechenleistungsnetworks haben sich insgesamt sehr schnell entwickelt. Es gibt bereits viele Projekte, die auf Produktleistungen zur Kundenbedienung angewiesen sind und Einnahmen generieren. Der Bereich hat sich von reinen Erzählungen gelöst und befindet sich in einer Phase, in der erste Dienstleistungen angeboten werden können.
- Die schwache Nachfrage ist ein gemeinsames Problem für dezentralisierte Rechenleistungsnetzwerke, bei denen die Langzeitkundenanforderungen nicht gut validiert und erschlossen wurden. Die Nachfrageseite hat jedoch keinen übermäßigen Einfluss auf den Münzpreis, da mehrere bereits ausgegebene Projekte eine starke Leistung zeigen.
- AI ist die Haupterzählung der dezentralisierten Rechenleistung, aber nicht das einzige Geschäft. Neben der Anwendung für AI-Training und Inferenz kann die Rechenleistung auch für Echtzeit-Rendering von Cloud-Gaming, Cloud-Handy-Services usw. verwendet werden.
- Die Hardware-Heterogenität des Rechenleistungsnetzwerks ist relativ hoch, und die Qualität und Skalierung des Rechenleistungsnetzwerks müssen weiter verbessert werden.
- Für Endbenutzer sind die Kostenvorteile nicht besonders offensichtlich. Für B-Endbenutzer ist neben Kosteneinsparungen auch die Stabilität, Zuverlässigkeit, technische Unterstützung, Compliance und rechtliche Unterstützung usw. zu berücksichtigen, wobei Web3-Projekte in diesen Bereichen im Allgemeinen nicht gut abschneiden.
3 Schlussgedanken
Der explosionsartige Anstieg der künstlichen Intelligenz hat zweifellos einen enormen Bedarf an Rechenleistung mit sich gebracht. Seit 2012 wächst die Rechenleistung, die für KI-Trainingsaufgaben verwendet wird, exponentiell. Aktuell verdoppelt sie sich alle 3,5 Monate (im Vergleich dazu verdoppelt sich die Leistung nach dem Moore’schen Gesetz alle 18 Monate). Seit 2012 hat sich der Bedarf an Rechenleistung um das über 300.000-fache erhöht, was das Wachstum nach dem Moore’schen Gesetz um das 12-fache übertrifft. Es wird prognostiziert, dass der GPU-Markt in den nächsten fünf Jahren mit einer jährlichen Wachstumsrate von 32% auf über 200 Milliarden US-Dollar wachsen wird. AMD geht von einer noch höheren Schätzung aus und prognostiziert, dass der GPU-Chipmarkt bis 2027 400 Milliarden US-Dollar erreichen wird.
![生于边缘:去中心化算力网络如何赋能Crypto与AI?]()
Bildquelle:
Der explosive Anstieg der künstlichen Intelligenz und anderer rechenintensiver Workloads (wie AR/VR-Rendering) hat strukturelle Ineffizienzen in der traditionellen Cloud-Computing- und führenden Computing-Märkten offengelegt. Theoretisch kann ein dezentrales Rechenleistungsnetzwerk durch die Nutzung verteilter ungenutzter Rechenressourcen flexiblere, kostengünstigere und effizientere Lösungen bieten, um den enormen Bedarf des Marktes an Rechenressourcen zu decken. Daher hat die Kombination von Krypto und KI ein enormes Marktpotenzial, steht jedoch gleichzeitig vor intensivem Wettbewerb mit traditionellen Unternehmen, hohen Markteintrittsbarrieren und komplexen Marktbedingungen. Insgesamt gesehen ist das dezentrale Rechenleistungsnetzwerk eine der vielversprechendsten vertikalen Bereiche im Bereich der Verschlüsselung, wenn man sich alle Krypto-Sektoren ansieht, die echte Nachfrage haben.
![生于边缘:去中心化算力网络如何赋能Crypto与AI?]()
Bildquelle:
Die Zukunft ist hell, aber der Weg ist kurvig. Um die obigen Visionen zu erreichen, müssen wir noch viele Probleme und Herausforderungen lösen. Zusammenfassend lässt sich sagen: **Derzeit ist der Gewinnspanne des Projekts sehr gering, wenn nur herkömmliche Cloud-Dienste angeboten werden. Aus der Nachfrageseite betrachtet bauen große Unternehmen in der Regel ihre eigene Rechenleistung auf, während die meisten reinen C-End-Entwickler Cloud-Dienste wählen. Ob kleine und mittlere Unternehmen, die tatsächlich dezentralisierte Rechenleistungsnetzwerkressourcen nutzen, eine stabile Nachfrage haben, muss weiter untersucht und validiert werden. Auf der anderen Seite ist KI ein Markt mit hohem Potenzial und viel Vorstellungskraft. Um einen breiteren Markt zu erschließen, müssen sich dezentrale Rechenleistungsdienstleister auch auf Modell-/KI-Dienste umstellen und mehr Anwendungsszenarien für Krypto + KI erkunden, um den geschaffenen Wert zu steigern. Derzeit gibt es jedoch viele Probleme und Herausforderungen, um weiter in den KI-Bereich zu expandieren: **
- Kein herausragender Preisvorteil: Durch den vorherigen Datenvergleich ist zu erkennen, dass die Kostenvorteile des dezentralisierten Rechenleistungsnetzwerks nicht zum Ausdruck kommen. Mögliche Gründe dafür könnten sein, dass für stark nachgefragte spezialisierte Chips wie H 100, A 100 usw. der Marktmechanismus bestimmt, dass die Preise für diese Hardware nicht billig sind. Darüber hinaus werden die versteckten Kosten der dezentralisierten Netzwerke, wie der Mangel an Skaleneffekten, hohe Netzwerk- und Bandbreitenkosten sowie die erhebliche Komplexität bei Management und Betrieb, die durch die Dezentralisierung verursacht werden, die Kosten für Rechenleistung weiter erhöhen.
- Die Besonderheit des AI-Trainings: Das dezentrale AI-Training stößt derzeit auf erhebliche technische Engpässe. Diese Engpässe werden im Arbeitsablauf der GPU deutlich sichtbar. Bei der Schulung großer Sprachmodelle empfängt die GPU zunächst vorkonfigurierte Datenchargen, um Vorwärts- und Rückwärtsberechnungen durchzuführen und Gradienten zu generieren. Anschließend werden die Gradienten von den einzelnen GPUs aggregiert und die Modellparameter aktualisiert, um sicherzustellen, dass alle GPUs synchronisiert sind. Dieser Vorgang wird fortlaufend wiederholt, bis alle Chargen geschult sind oder die festgelegte Anzahl von Runden erreicht ist. Dieser Prozess erfordert eine große Menge an Datenübertragung und Synchronisierung. Fragen wie die Verwendung von Parallel- und Synchronisierungsstrategien, die Optimierung der Netzwerkbandbreite und Latenzzeit sowie die Reduzierung der Kommunikationskosten sind derzeit noch nicht gut beantwortet. Derzeit ist es noch nicht praktikabel, AI-Training mithilfe eines dezentralen Rechenleistungsnetzwerks durchzuführen.
- Datensicherheit und Privatsphäre : Während des Trainings großer Sprachmodelle können verschiedene Schritte, die Datenverarbeitung und -übertragung betreffen, wie z.B. die Datenzuweisung, Modelltraining, Parameter- und Gradientenaggregation, die Datensicherheit und -privatsphäre beeinträchtigen. Darüber hinaus ist die Privatsphäre von Daten-Privacy-Coins noch wichtiger. Wenn das Problem der Datensicherheit und -privatsphäre nicht gelöst werden kann, kann es nicht wirklich in großem Maßstab auf der Nachfrageseite eingesetzt werden.
Von einem realistischen Standpunkt aus gesehen muss ein dezentrales Rechenleistungsnetzwerk sowohl die aktuellen Anforderungen als auch den zukünftigen Markt abdecken. Durch die Festlegung der Produktpositionierung und der Zielgruppe können beispielsweise zunächst nicht-AI- oder Web3-native Projekte ins Visier genommen werden, um eine frühe Benutzerbasis aufzubauen. Gleichzeitig sollten verschiedene Szenarien erkundet werden, in denen AI und Krypto kombiniert werden, um die technologische Spitze zu erkunden und eine Transformation und Upgrades der Dienstleistungen zu ermöglichen.
Referenzmaterial
caff.com/zh/archives/17351?ref=1554