NEO
NEO

NEO koers

$5,9040
-$0,03200
(-0,54%)
Prijsverandering voor de afgelopen 24 uur
USDUSD
Wat vind je vandaag van NEO?
Deel je mening hier door een duim omhoog te geven als je je bullish voelt over een munt of een duim omlaag als je je bearish voelt.
Stem om resultaten te bekijken
Begin je crypto-avontuur
Begin je crypto-avontuur
Sneller, beter en sterker dan de gemiddelde crypto-exchange.

Disclaimer

De sociale inhoud op deze pagina ("Inhoud"), inclusief maar niet beperkt tot tweets en statistieken die door LunarCrush worden verstrekt, is afkomstig van derden en wordt alleen voor informatieve doeleinden geleverd "zoals deze is". OKX geeft geen garantie voor de kwaliteit of nauwkeurigheid van de Inhoud en de Inhoud vertegenwoordigt niet de standpunten van OKX. Het is niet bedoeld om (i) beleggingsadvies of een beleggingsaanbeveling te geven; (ii) een aanbod of verzoek om digitale bezitting te kopen, verkopen of te bezitten; of (iii) financieel, boekhoudkundig, juridisch of fiscaal advies. Digitale bezittingen, waaronder stablecoins en NFT's, brengt een hoog risico met zich mee en kan sterk fluctueren. De prijs en prestaties van de digitale bezittingen zijn niet gegarandeerd en kunnen zonder voorafgaande kennisgeving worden gewijzigd.

OKX geeft geen beleggings- of vermogensadvies. Je moet zorgvuldig overwegen of het verhandelen of bezitten van digitale bezittingen voor jou geschikt is in het licht van je financiële toestand. Raadpleeg je juridische, fiscale of beleggingsadviseur als je vragen hebt over je specifieke situatie. Raadpleeg voor meer informatie onze Gebruiksvoorwaarden en Risicowaarschuwing. Door gebruik te maken van de website van derden ('TPW'), ga je ermee akkoord dat elk gebruik van de TPW onderworpen is aan en beheerst wordt door de voorwaarden van de TPW. Tenzij uitdrukkelijk schriftelijk vermeld, zijn OKX en haar partners ("OKX") op geen enkele manier verbonden met de eigenaar van de exploitant van de TPW. Je gaat ermee akkoord dat OKX niet verantwoordelijk of aansprakelijk is voor verlies, schade en andere gevolgen die voortvloeien uit jouw gebruik van de TPW. Houd er rekening mee dat het gebruik van een TPW kan leiden tot verlies of vermindering van je bezittingen. Het product is mogelijk niet in alle rechtsgebieden beschikbaar.

NEO marktinformatie

Marktkapitalisatie
Marktkapitalisatie wordt berekend door het circulerende aanbod van een munt te vermenigvuldigen met de laatste prijs.
Marktkapitalisatie = Circulerend aanbod × Laatste prijs
Circulerend aanbod
Totale bedrag van een munt dat openbaar beschikbaar is op de markt.
Positie marktkapitalisatie
De positie van een munt in termen van marktkapitalisatie.
Historisch hoogtepunt
Hoogste prijs die een munt heeft bereikt in zijn handelsgeschiedenis.
Historisch dieptepunt
Laagste prijs die een munt heeft bereikt in zijn handelsgeschiedenis.
Marktkapitalisatie
$415,70M
Circulerend aanbod
70.530.000 NEO
70,53% van
100.000.000 NEO
Positie marktkapitalisatie
--
Audits
CertiK
Laatste audit: 3 jun 2021, (UTC+8)
24u hoog
$5,9620
24u laag
$5,7180
Historisch hoogtepunt
$188,00
-96,86% (-$182,10)
Laatste update: 16 jan 2018, (UTC+8)
Historisch dieptepunt
$3,9000
+51,38% (+$2,0040)
Laatste update: 13 mrt 2020, (UTC+8)
De volgende inhoud is afkomstig van .
Mario Nawfal
Mario Nawfal
ROBOTS KOMEN VOOR UW TUIN - EN ZE HEBBEN NIET EENS SCHADUW NODIG Het Noorse 1X Technologies NEO is een humanoïde bot die is gebouwd om je slopende tuinwerk aan te pakken zonder er een plaats delict van te maken. Het kan het vuile werk aan - geen klachten, geen pauzes, geen blaren. Het enige dat nu nodig is, is goedkeuring van de regelgevende instanties, en uw weekendtuinieren wordt volledig optioneel. Sorry, groene vingers - de toekomst zweet niet. Bron: Gids met handige tips
Origineel weergeven
29,14K
34
PANews
PANews
1. Inleiding: Uitbreiding is een eeuwige propositie, en parallellisme is het ultieme slagveld Sinds de geboorte van Bitcoin heeft het blockchain-systeem altijd te maken gehad met een onvermijdelijk kernprobleem: schaalvergroting. Bitcoin verwerkt minder dan 10 transacties per seconde en Ethereum worstelt om het prestatieknelpunt van tientallen TPS (transacties per seconde) te doorbreken, wat vooral omslachtig is in de traditionele Web2-wereld, die vaak tienduizenden TPS is. Wat nog belangrijker is, dit is geen eenvoudig probleem dat kan worden opgelost door "servers toe te voegen", maar een systemische beperking die diep verankerd is in de onderliggende consensus en het structurele ontwerp van de blockchain - dat wil zeggen, de onmogelijke driehoek van de blockchain waar "decentralisatie, veiligheid en schaalbaarheid" niet kunnen worden gecombineerd. In het afgelopen decennium hebben we talloze uitbreidingspogingen zien stijgen en dalen. Van de Bitcoin-schaaloorlog tot de Ethereum-sharding-visie, van staatskanalen en plasma tot rollups en modulaire blockchains, van off-chain uitvoering in Layer 2 tot structurele refactoring van gegevensbeschikbaarheid, de hele industrie is begonnen aan een pad van schaalvergroting vol technische verbeeldingskracht. Als het meest geaccepteerde schaalparadigma heeft rollup het doel bereikt om TPS aanzienlijk te verhogen, terwijl de uitvoeringslast van de hoofdketen wordt verminderd en de veiligheid van Ethereum behouden blijft. Maar het raakt niet de echte grenzen van de onderliggende "single-chain prestaties" van de blockchain, vooral niet op uitvoeringsniveau, wat de doorvoer van het blok zelf is - wordt nog steeds beperkt door het oude verwerkingsparadigma van on-chain seriële berekening. Hierdoor is in-chain parallel computing geleidelijk het gezichtsveld van de industrie binnengekomen. Anders dan off-chain schaling en cross-chain distributie, probeert intra-chain parallellisme de uitvoeringsengine volledig te reconstrueren met behoud van de single-chain atomiciteit en geïntegreerde structuur, en upgradet de blockchain van een single-threaded modus van "seriële uitvoering van één transactie door één" naar een high-concurrency computing-systeem van "multi-threading + pipeline + dependency scheduling" onder begeleiding van modern besturingssysteem en CPU-ontwerp. Een dergelijk pad kan niet alleen een honderdvoudige toename van de doorvoer bereiken, maar kan ook een belangrijke voorwaarde worden voor de explosie van slimme contracttoepassingen. In feite is single-threaded computing in het Web2-computerparadigma al lang geëlimineerd door moderne hardware-architecturen en vervangen door een eindeloze stroom optimalisatiemodellen zoals parallel programmeren, asynchrone planning, threadpools en microservices. Blockchain, als een primitiever en conservatiever computersysteem met extreem hoge eisen aan zekerheid en verifieerbaarheid, is nooit in staat geweest om volledig gebruik te maken van deze parallelle computerideeën. Dit is zowel een beperking als een kans. Nieuwe ketens zoals Solana, Sui en Aptos zijn de eersten die deze verkenning beginnen door parallellisme op architectonisch niveau te introduceren. Opkomende projecten zoals Monad en MegaETH hebben het on-chain parallellisme verder verheven tot doorbraken in diepe mechanismen zoals pipeline-uitvoering, optimistische gelijktijdigheid en asynchrone berichtgestuurde, met kenmerken die steeds dichter bij moderne besturingssystemen komen. Men kan zeggen dat parallel computing niet alleen een "methode voor prestatie-optimalisatie" is, maar ook een keerpunt in het paradigma van het blockchain-uitvoeringsmodel. Het daagt de fundamentele patronen van de uitvoering van slimme contracten uit en herdefinieert de basislogica van transactieverpakking, statustoegang, aanroeprelaties en opslaglay-out. Als rollup "het verplaatsen van transacties naar off-chain uitvoering" is, dan is on-chain parallellisme "het bouwen van supercomputing-cores on-chain", en het doel is niet alleen om de doorvoer te verbeteren, maar om echt duurzame infrastructuurondersteuning te bieden voor toekomstige Web3-native applicaties (high-frequency trading, game-engines, uitvoering van AI-modellen, on-chain social, enz.). Nadat het rollup-traject geleidelijk homogeen wordt, wordt parallellisme binnen de keten stilletjes de doorslaggevende variabele van de nieuwe cyclus van Layer 1-competitie. Prestaties zijn niet langer alleen "sneller", maar de mogelijkheid om een hele heterogene applicatiewereld te kunnen ondersteunen. Dit is niet alleen een technische race, maar ook een paradigmastrijd. De volgende generatie soevereine uitvoeringsplatforms in de Web3-wereld zal waarschijnlijk voortkomen uit dit parallelle worstelen binnen de keten. 2. Panorama van het expansieparadigma: vijf soorten routes, elk met zijn eigen accenten Capaciteitsuitbreiding, als een van de belangrijkste, meest duurzame en moeilijke onderwerpen in de evolutie van de technologie van de publieke keten, heeft het afgelopen decennium geleid tot de opkomst en evolutie van bijna alle reguliere technologiepaden. Beginnend met de strijd om de blokgrootte van Bitcoin, is deze technische wedstrijd over "hoe de keten sneller te laten lopen" uiteindelijk opgedeeld in vijf basisroutes, die elk vanuit een andere invalshoek in het knelpunt snijden, met zijn eigen technische filosofie, landingsmoeilijkheidsgraad, risicomodel en toepasbare scenario's. De eerste route is de meest eenvoudige on-chain scaling, wat betekent dat de blokgrootte wordt vergroot, de bloktijd wordt verkort of de verwerkingskracht wordt verbeterd door de gegevensstructuur en het consensusmechanisme te optimaliseren. Deze aanpak is de focus geweest van het debat over Bitcoin-schaalvergroting, wat heeft geleid tot "big block"-forks zoals BCH en BSV, en ook tot invloed heeft op de ontwerpideeën van vroege high-performance openbare ketens zoals EOS en NEO. Het voordeel van dit soort route is dat het de eenvoud van single-chain consistentie behoudt, wat gemakkelijk te begrijpen en te implementeren is, maar het is ook heel gemakkelijk om de systemische bovengrens te raken, zoals centralisatierisico, stijgende operationele kosten van knooppunten en verhoogde synchronisatiemoeilijkheid, dus het is niet langer de mainstream kernoplossing in het huidige ontwerp, maar is meer een extra collocatie van andere mechanismen geworden. Het tweede type route is off-chain schaling, die wordt vertegenwoordigd door staatskanalen en sidechains. Het basisidee van dit type pad is om het grootste deel van de transactieactiviteit off-chain te verplaatsen en alleen het eindresultaat naar de hoofdketen te schrijven, die fungeert als de uiteindelijke afwikkelingslaag. In termen van technische filosofie ligt het dicht bij de asynchrone architectuur van Web2 - probeer zware transactieverwerking aan de periferie te laten, en de hoofdketen doet minimale betrouwbare verificatie. Hoewel dit idee theoretisch oneindig schaalbaar kan zijn, beperken het vertrouwensmodel, de fondsbeveiliging en de interactiecomplexiteit van off-chain transacties de toepassing ervan. Hoewel Lightning Network bijvoorbeeld een duidelijke positionering van financiële scenario's heeft, is de schaal van het ecosysteem nooit geëxplodeerd. Ontwerpen op basis van meerdere sidechains, zoals Polygon POS, hebben echter niet alleen een hoge doorvoer, maar leggen ook de nadelen bloot van moeilijke overerving van de beveiliging van de hoofdketen. Het derde type route is de meest populaire en meest ingezette Layer 2 rollup route. Deze methode verandert de hoofdketen zelf niet direct, maar schaalt door het mechanisme van off-chain uitvoering en on-chain verificatie. Optimistic Rollup en ZK Rollup hebben hun eigen voordelen: de eerste is snel te implementeren en zeer compatibel, maar heeft de problemen van vertraging in de uitdagingsperiode en fraudebestendigheidsmechanisme; De laatste heeft een sterke beveiliging en goede gegevenscompressiemogelijkheden, maar is complex om te ontwikkelen en mist EVM-compatibiliteit. Het maakt niet uit wat voor soort rollup het is, de essentie is om de uitvoeringskracht uit te besteden, terwijl gegevens en verificatie op de hoofdketen worden gehouden, waardoor een relatief evenwicht wordt bereikt tussen decentralisatie en hoge prestaties. De snelle groei van projecten zoals Arbitrum, Optimism, zkSync en StarkNet bewijst de haalbaarheid van dit pad, maar het legt ook knelpunten op de middellange termijn bloot, zoals een te grote afhankelijkheid van gegevensbeschikbaarheid (DA), hoge kosten en gefragmenteerde ontwikkelingservaring. Het vierde type route is de modulaire blockchain-architectuur die de afgelopen jaren is ontstaan, zoals Celestia, Avail, EigenLayer, enz. Het modulaire paradigma pleit voor de volledige ontkoppeling van de kernfuncties van de blockchain - uitvoering, consensus, beschikbaarheid van gegevens en afwikkeling - door meerdere gespecialiseerde ketens om verschillende functies te voltooien en deze vervolgens te combineren tot een schaalbaar netwerk met een cross-chain protocol. Deze richting wordt sterk beïnvloed door de modulaire architectuur van het besturingssysteem en het concept van cloud computing composability, dat het voordeel heeft dat systeemcomponenten flexibel kunnen worden vervangen en de efficiëntie op specifieke gebieden zoals DA aanzienlijk kan worden verbeterd. De uitdagingen zijn echter ook heel duidelijk: de kosten van synchronisatie, verificatie en wederzijds vertrouwen tussen systemen na ontkoppeling van modules zijn extreem hoog, het ontwikkelaarsecosysteem is extreem gefragmenteerd en de vereisten voor protocolstandaarden op middellange en lange termijn en cross-chain beveiliging zijn veel hoger dan die van traditioneel ketenontwerp. In wezen bouwt dit model niet langer een "keten", maar bouwt het een "ketennetwerk", wat een ongekende drempel naar voren brengt voor het algehele begrip van de architectuur en de werking en het onderhoud. Het laatste type route, waarop de volgende analyse in dit artikel centraal staat, is het optimalisatiepad voor parallelle computing binnen de keten. In tegenstelling tot de eerste vier soorten "horizontale splitsing", die voornamelijk "horizontale splitsing" uitvoeren vanaf het structurele niveau, legt parallel computing de nadruk op "verticale upgrade", dat wil zeggen dat de gelijktijdige verwerking van atomaire transacties wordt gerealiseerd door de architectuur van de uitvoeringsengine binnen een enkele keten te veranderen. Dit vereist het herschrijven van de VM-planningslogica en het introduceren van een complete set moderne planningsmechanismen voor computersystemen, zoals analyse van transactieafhankelijkheid, voorspelling van statusconflicten, parallellismecontrole en asynchroon aanroepen. Solana is het eerste project dat het concept van parallelle VM implementeert in een systeem op ketenniveau, dat multi-core parallelle uitvoering realiseert door middel van het beoordelen van transactieconflicten op basis van het accountmodel. De nieuwe generatie projecten, zoals Monad, Sei, Fuel, MegaETH, enz., probeert verder geavanceerde ideeën te introduceren, zoals pijplijnuitvoering, optimistische gelijktijdigheid, opslagpartitionering en parallelle ontkoppeling om krachtige uitvoeringskernen te bouwen die vergelijkbaar zijn met moderne CPU's. Het belangrijkste voordeel van deze richting is dat het niet hoeft te vertrouwen op de multi-chain-architectuur om een doorbraak in de doorvoerlimiet te bereiken, en tegelijkertijd voldoende rekenflexibiliteit biedt voor de uitvoering van complexe slimme contracten, wat een belangrijke technische voorwaarde is voor toekomstige toepassingsscenario's zoals AI Agent, grootschalige ketenspellen en hoogfrequente afgeleiden. Als we naar de bovenstaande vijf soorten schaalpaden kijken, is de divisie erachter eigenlijk de systematische afweging tussen prestaties, composability, beveiliging en ontwikkelingscomplexiteit van blockchain. Rollup is sterk in consensusoutsourcing en veilige overerving, modulariteit benadrukt structurele flexibiliteit en hergebruik van componenten, off-chain schaalpogingen om het knelpunt van de hoofdketen te doorbreken, maar de vertrouwenskosten zijn hoog, en intra-chain parallellisme richt zich op de fundamentele upgrade van de uitvoeringslaag, in een poging de prestatielimiet van moderne gedistribueerde systemen te benaderen zonder de consistentie van de keten te vernietigen. Het is onmogelijk voor elk pad om alle problemen op te lossen, maar het zijn deze richtingen die samen een panorama vormen van de upgrade van het Web3-computerparadigma en ook ontwikkelaars, architecten en investeerders extreem rijke strategische opties bieden. Net zoals het besturingssysteem is verschoven van single-core naar multi-core en databases zijn geëvolueerd van sequentiële indexen naar gelijktijdige transacties, zal de uitbreiding van Web3 uiteindelijk evolueren naar een zeer parallel uitvoeringstijdperk. In dit tijdperk zijn prestaties niet langer alleen een race om de kettingsnelheid, maar een uitgebreide belichaming van de onderliggende ontwerpfilosofie, diepgaande kennis van de architectuur, samenwerking tussen software en hardware en systeemcontrole. En parallellisme binnen de keten kan het ultieme slagveld zijn van deze langdurige oorlog. 3. Parallel Computing Classification Graph: vijf paden van account naar instructie In de context van de voortdurende evolutie van blockchain-schaaltechnologie is parallel computing geleidelijk het kernpad geworden voor doorbraken op het gebied van prestaties. Anders dan de horizontale ontkoppeling van de structuurlaag, netwerklaag of gegevensbeschikbaarheidslaag, is parallelle computing een diepe mijnbouw op de uitvoeringslaag, die verband houdt met de laagste logica van de operationele efficiëntie van de blockchain, en de reactiesnelheid en verwerkingscapaciteit van een blockchain-systeem bepaalt in het licht van hoge gelijktijdigheid en complexe transacties van meerdere typen. Uitgaande van het uitvoeringsmodel en een overzicht van de ontwikkeling van deze technologielijn, kunnen we een duidelijke classificatiekaart van parallel computing opstellen, die grofweg kan worden onderverdeeld in vijf technische paden: parallellisme op accountniveau, parallellisme op objectniveau, parallellisme op transactieniveau, parallellisme op virtueel machineniveau en parallellisme op instructieniveau. Deze vijf soorten paden, van grofkorrelig tot fijnkorrelig, zijn niet alleen het continue verfijningsproces van parallelle logica, maar ook het pad van toenemende systeemcomplexiteit en planningsmoeilijkheid. Het vroegste parallellisme op accountniveau is het paradigma dat wordt vertegenwoordigd door Solana. Dit model is gebaseerd op het ontkoppelingsontwerp van rekening en staat en bepaalt of er een conflicterende relatie is door de set rekeningen die bij de transactie betrokken zijn statisch te analyseren. Als twee transacties toegang hebben tot een set accounts die elkaar niet overlappen, kunnen ze gelijktijdig worden uitgevoerd op meerdere kernen. Dit mechanisme is ideaal voor het omgaan met goed gestructureerde transacties met duidelijke inputs en outputs, vooral voor programma's met voorspelbare paden zoals DeFi. De natuurlijke veronderstelling is echter dat accounttoegang voorspelbaar is en dat staatsafhankelijkheid statisch kan worden afgeleid, waardoor het vatbaar is voor conservatieve uitvoering en verminderd parallellisme in het licht van complexe slimme contracten (zoals dynamisch gedrag zoals kettingspellen en AI-agenten). Bovendien zorgt de onderlinge afhankelijkheid tussen rekeningen er ook voor dat parallelle rendementen in bepaalde scenario's met hoge frequentie worden verzwakt. De runtime van Solana is in dit opzicht sterk geoptimaliseerd, maar de kernplanningsstrategie wordt nog steeds beperkt door de granulariteit van het account. Verdere verfijning Op basis van het rekenmodel komen we op het technische niveau van parallellisme op objectniveau. Parallellisme op objectniveau introduceert semantische abstractie van bronnen en modules, met gelijktijdige planning in meer fijnmazige eenheden van "toestandsobjecten". Aptos en Sui zijn belangrijke verkenners in deze richting, vooral de laatste, die het eigendom en de variabiliteit van bronnen tijdens het compileren definieert via het lineaire typesysteem van de Move-taal, waardoor de runtime nauwkeurig kan controleren of conflicten met toegang tot bronnen kunnen worden beheerd. Vergeleken met parallellisme op accountniveau is deze methode veelzijdiger en schaalbaarder, kan complexere lees- en schrijflogica van staten bestrijken en bedient natuurlijk zeer heterogene scenario's zoals games, sociale netwerken en AI. Parallellisme op objectniveau introduceert echter ook hogere taalbarrières en ontwikkelingscomplexiteit, en Move is geen directe vervanging voor Solidity, en de hoge kosten van ecologisch schakelen beperken de populariteit van het parallelle paradigma. Verdere parallelliteit op transactieniveau is de richting die wordt verkend door de nieuwe generatie high-performance ketens, vertegenwoordigd door Monad, Sei en Fuel. In plaats van staten of accounts te behandelen als de kleinste eenheid van parallellisme, is het pad opgebouwd rond een afhankelijkheidsgrafiek rond de hele transactie zelf. Het behandelt transacties als atomaire operationele eenheden, bouwt transactiegrafieken (Transaction DAG's) door middel van statische of dynamische analyse en vertrouwt op planners voor de uitvoering van gelijktijdige stromen. Dit ontwerp stelt het systeem in staat om mining-parallellisme te maximaliseren zonder dat het de onderliggende toestandsstructuur volledig hoeft te begrijpen. Monad is bijzonder in het oog springend en combineert moderne database-engine-technologieën zoals Optimistic Concurrency Control (OCC), parallelle pijplijnplanning en out-of-order uitvoering, waardoor ketenuitvoering dichter bij het paradigma van de "GPU-planner" komt. In de praktijk vereist dit mechanisme uiterst complexe afhankelijkheidsmanagers en conflictdetectoren, en de planner zelf kan ook een knelpunt worden, maar de potentiële doorvoercapaciteit is veel hoger dan die van het account- of objectmodel, waardoor het de meest theoretische kracht is in het huidige parallelle computerspoor. Parallellisme op virtueel-machineniveau, aan de andere kant, integreert gelijktijdige uitvoeringsmogelijkheden rechtstreeks in de onderliggende instructieplanningslogica van de VM, waarbij ernaar wordt gestreefd de inherente beperkingen van de uitvoering van EVM-sequenties volledig te doorbreken. Als een "super virtueel machine-experiment" binnen het Ethereum-ecosysteem, probeert MegaETH de EVM opnieuw te ontwerpen om multi-threaded gelijktijdige uitvoering van slimme contractcode te ondersteunen. De onderliggende laag zorgt ervoor dat elk contract onafhankelijk kan worden uitgevoerd in verschillende uitvoeringscontexten via mechanismen zoals gesegmenteerde uitvoering, statussegmentatie en asynchrone aanroep, en zorgt voor uiteindelijke consistentie met behulp van een parallelle synchronisatielaag. Het moeilijkste deel van deze aanpak is dat deze volledig compatibel moet zijn met de bestaande semantiek van EVM-gedrag en tegelijkertijd de hele uitvoeringsomgeving en het gasmechanisme moet transformeren om het Solidity-ecosysteem soepel te migreren naar een parallel framework. De uitdaging is niet alleen de diepte van de technologiestack, maar ook de acceptatie van belangrijke protocolwijzigingen in de politieke L1-structuur van Ethereum. Maar als het lukt, belooft MegaETH een "multi-core processorrevolutie" te worden in de EVM-ruimte. Het laatste type pad is parallellisme op instructieniveau, dat het meest fijnmazig is en de hoogste technische drempel heeft. Het idee is afgeleid van de out-of-order uitvoering en instructiepijplijnen van het moderne CPU-ontwerp. Dit paradigma stelt dat, aangezien elk slim contract uiteindelijk wordt gecompileerd in bytecode-instructies, het heel goed mogelijk is om elke bewerking te plannen en te analyseren en deze parallel te herschikken op dezelfde manier als een CPU een x86-instructieset uitvoert. Het Fuel-team heeft in eerste instantie een herbestelbaar uitvoeringsmodel op instructieniveau geïntroduceerd in zijn FuelVM, en op de lange termijn, zodra de blockchain-uitvoeringsengine voorspellende uitvoering en dynamische herschikking van instructieafhankelijke personen implementeert, zal het parallellisme de theoretische limiet bereiken. Deze aanpak kan zelfs het co-design van blockchain en hardware naar een geheel nieuw niveau tillen, waardoor de keten een echte "gedecentraliseerde computer" wordt in plaats van alleen een "gedistribueerd grootboek". Natuurlijk bevindt dit pad zich nog in de theoretische en experimentele fase, en de relevante planners en beveiligingsverificatiemechanismen zijn nog niet volwassen, maar het wijst op de ultieme grens van de toekomst van parallel computing. Samenvattend vormen de vijf paden van account, object, transactie, VM en instructie het ontwikkelingsspectrum van intra-chain parallel computing, van statische gegevensstructuur tot dynamisch planningsmechanisme, van voorspelling van statustoegang tot herschikking op instructieniveau, elke stap van parallelle technologie betekent een aanzienlijke toename van de systeemcomplexiteit en ontwikkelingsdrempel. Maar tegelijkertijd markeren ze ook een paradigmaverschuiving in het computermodel van blockchain, van het traditionele full-sequence consensusboek naar een krachtige, voorspelbare en verzendbare gedistribueerde uitvoeringsomgeving. Dit is niet alleen een inhaalslag met de efficiëntie van Web2 cloud computing, maar ook een diepgaande opvatting van de ultieme vorm van "blockchain-computer". De selectie van parallelle paden voor verschillende openbare ketens zal ook de toonderlimiet van hun toekomstige applicatie-ecosystemen bepalen, evenals hun kernconcurrentievermogen in scenario's zoals AI Agent, chain games en on-chain high-frequency trading. Ten vierde worden de twee hoofdsporen toegelicht: Monad vs MegaETH Van de vele paden van parallelle computerevolutie zijn de twee belangrijkste technische routes met de meeste focus, de hoogste stem en het meest complete verhaal in de huidige markt ongetwijfeld de "parallelle computerketen helemaal opnieuw opbouwen" vertegenwoordigd door Monad en de "parallelle revolutie binnen EVM" vertegenwoordigd door MegaETH. Deze twee zijn niet alleen de meest intensieve R&D-richtingen voor de huidige cryptografische primitieve ingenieurs, maar ook de meest beslissende polaire symbolen in de huidige Web3-computerprestatierace. Het verschil tussen de twee ligt niet alleen in het uitgangspunt en de stijl van de technische architectuur, maar ook in de ecologische objecten die ze dienen, de migratiekosten, de uitvoeringsfilosofie en het toekomstige strategische pad erachter. Ze vertegenwoordigen een parallelle paradigma-concurrentie tussen "reconstructionisme" en "compatibiliteitsisme", en hebben de verbeelding van de markt over de uiteindelijke vorm van high-performance ketens diepgaand beïnvloed. Monad is door en door een "computationele fundamentalist", en zijn ontwerpfilosofie is niet ontworpen om compatibel te zijn met bestaande EVM's, maar eerder om de manier waarop blockchain-uitvoeringsengines onder de motorkap draaien opnieuw te definiëren, geïnspireerd door moderne databases en krachtige multi-core systemen. Het kerntechnologiesysteem is gebaseerd op volwassen mechanismen op het gebied van databases, zoals Optimistic Concurrency Control, Transaction DAG Scheduling, Out-of-Order Execution en Pipelined Execution, met als doel de transactieverwerkingsprestaties van de keten te verhogen tot de orde van miljoenen TPS. In de Monad-architectuur zijn de uitvoering en volgorde van transacties volledig ontkoppeld en bouwt het systeem eerst een grafiek voor transactieafhankelijkheid en geeft deze vervolgens door aan de planner voor parallelle uitvoering. Alle transacties worden behandeld als atomaire eenheden van transacties, met expliciete lees-schrijfsets en snapshots van de status, en planners voeren optimistisch uit op basis van afhankelijkheidsgrafieken, waarbij ze worden teruggedraaid en opnieuw worden uitgevoerd wanneer er conflicten optreden. Dit mechanisme is uiterst complex in termen van technische implementatie, en vereist de constructie van een uitvoeringsstack die vergelijkbaar is met die van een moderne databasetransactiemanager, evenals de introductie van mechanismen zoals caching op meerdere niveaus, prefetching, parallelle validatie, enz., om de latentie van de uiteindelijke state commit te comprimeren, maar het kan theoretisch de doorvoerlimiet verleggen tot hoogten die niet worden voorgesteld door de huidige keten. Wat nog belangrijker is, Monad heeft de interoperabiliteit met de EVM niet opgegeven. Het gebruikt een tussenlaag die vergelijkbaar is met "Solidity-Compatible Intermediate Language" om ontwikkelaars te ondersteunen bij het schrijven van contracten in Solidity-syntaxis en tegelijkertijd het uitvoeren van intermediaire taaloptimalisatie en parallellisatieplanning in de uitvoeringsengine. Deze ontwerpstrategie van "oppervlaktecompatibiliteit en bodemrefactoring" behoudt niet alleen de vriendelijkheid van ecologische ontwikkelaars van Ethereum, maar bevrijdt ook het onderliggende uitvoeringspotentieel in de grootste mate, wat een typische technische strategie is van "het slikken van de EVM en het vervolgens deconstrueren". Dit betekent ook dat zodra Monad is gelanceerd, het niet alleen een soevereine keten zal worden met extreme prestaties, maar ook een ideale uitvoeringslaag voor Layer 2 rollup-netwerken, en zelfs een "pluggable high-performance core" voor andere chain execution modules op de lange termijn. Vanuit dit oogpunt is Monad niet alleen een technische route, maar ook een nieuwe logica van het ontwerp van systeemsoevereiniteit, die pleit voor de "modularisering-prestatie-herbruikbaarheid" van de uitvoeringslaag, om zo een nieuwe standaard te creëren voor inter-chain collaborative computing. In tegenstelling tot Monad's "nieuwe wereldbouwer"-houding, is MegaETH een volledig tegenovergesteld type project, dat ervoor kiest om te vertrekken vanuit de bestaande wereld van Ethereum en een aanzienlijke toename van de uitvoeringsefficiëntie te bereiken met minimale wijzigingskosten. MegaETH vernietigt de EVM-specificatie niet, maar probeert eerder de kracht van parallel computing in te bouwen in de uitvoeringsengine van de bestaande EVM, waardoor een toekomstige versie van de "multi-core EVM" ontstaat. De grondgedachte ligt in een volledige refactoring van het huidige EVM-instructie-uitvoeringsmodel met mogelijkheden zoals isolatie op threadniveau, asynchrone uitvoering op contractniveau en conflictdetectie van statustoegang, waardoor meerdere slimme contracten tegelijkertijd in hetzelfde blok kunnen worden uitgevoerd en uiteindelijk statuswijzigingen kunnen samenvoegen. Dit model vereist dat ontwikkelaars aanzienlijke prestatieverbeteringen behalen met hetzelfde contract dat op de MegaETH-keten is geïmplementeerd zonder bestaande Solidity-contracten te wijzigen, met behulp van nieuwe talen of toolchains. Dit pad van "conservatieve revolutie" is buitengewoon aantrekkelijk, vooral voor het Ethereum L2-ecosysteem, omdat het een ideaal pad biedt naar pijnloze prestatie-upgrades zonder de noodzaak om syntaxis te migreren. De belangrijkste doorbraak van MegaETH ligt in het VM multi-threaded planningsmechanisme. Traditionele EVM's gebruiken een gestapeld, single-threaded uitvoeringsmodel, waarbij elke instructie lineair wordt uitgevoerd en statusupdates synchroon moeten plaatsvinden. MegaETH doorbreekt dit patroon en introduceert een asynchrone aanroepstack en uitvoeringscontextisolatiemechanisme, om gelijktijdige uitvoering van "gelijktijdige EVM-contexten" te bereiken. Elk contract kan zijn eigen logica aanroepen in een afzonderlijke thread, en alle threads zullen de status uniform detecteren en convergeren via de parallelle commitlaag wanneer de status uiteindelijk wordt ingediend. Dit mechanisme lijkt sterk op het JavaScript-multithreading-model van moderne browsers (Web Workers + Shared Memory + Lock-Free Data), dat het determinisme van het gedrag van de hoofdthread behoudt en een krachtig planningsmechanisme introduceert dat asynchroon op de achtergrond is. In de praktijk is dit ontwerp ook uiterst vriendelijk voor blokbouwers en zoekers, en kan het Mempool-sorteer- en MEV-opnamepaden optimaliseren volgens parallelle strategieën, waardoor een gesloten lus van economische voordelen wordt gevormd op de uitvoeringslaag. Wat nog belangrijker is, MegaETH kiest ervoor om diep verbonden te zijn met het Ethereum-ecosysteem, en de belangrijkste landingsplaats in de toekomst zal waarschijnlijk een EVM L2 Rollup-netwerk zijn, zoals Optimism, Base of Arbitrum Orbit-keten. Eenmaal op grote schaal toegepast, kan het bijna 100 keer prestatieverbetering bereiken bovenop de bestaande Ethereum-technologiestack zonder de contractsemantiek, het staatsmodel, de gaslogica, aanroepmethoden, enz. te veranderen, wat het een aantrekkelijke technologie-upgraderichting maakt voor EVM-conservatieven. Het MegaETH-paradigma is: zolang je nog steeds dingen op Ethereum doet, laat ik je computerprestaties omhoogschieten. Vanuit het perspectief van realisme en techniek is het gemakkelijker te implementeren dan Monad, en het is meer in lijn met het iteratieve pad van reguliere DeFi- en NFT-projecten, waardoor het op korte termijn een kandidaat is voor ecologische ondersteuning. In zekere zin zijn de twee routes van Monad en MegaETH niet alleen twee implementaties van parallelle technologiepaden, maar ook een klassieke confrontatie tussen "refactoring" en "compatibiliteit" in de blockchain-ontwikkelingsroute: de eerste streeft naar een paradigmadoorbraak en reconstrueert alle logica van virtuele machines tot onderliggend statusbeheer om ultieme prestaties en architecturale plasticiteit te bereiken; Deze laatste streeft naar stapsgewijze optimalisatie, waarbij traditionele systemen tot het uiterste worden gedreven met inachtneming van de bestaande ecologische beperkingen, waardoor de migratiekosten worden geminimaliseerd. Er zijn geen absolute voor- of nadelen tussen de twee, maar ze dienen verschillende ontwikkelaarsgroepen en ecosysteemvisies. Monad is meer geschikt voor het bouwen van nieuwe systemen vanaf nul, chain games die extreme doorvoer nastreven, AI-agents en modulaire uitvoeringsketens. MegaETH daarentegen is meer geschikt voor L2-projecten, DeFi-projecten en infrastructuurprotocollen die prestatie-upgrades willen bereiken met minimale ontwikkelingswijzigingen. Ze zijn als hogesnelheidstreinen op een nieuw spoor, opnieuw gedefinieerd van het spoor, het elektriciteitsnet naar de carrosserie, alleen maar om een ongekende snelheid en ervaring te bereiken; Een ander voorbeeld is het installeren van turbines op bestaande snelwegen, het verbeteren van de rijstrookplanning en de motorstructuur, waardoor voertuigen sneller kunnen rijden zonder het vertrouwde wegennet te verlaten. De twee kunnen op dezelfde manier eindigen: in de volgende fase van modulaire blockchain-architecturen zou Monad een "execution-as-a-service"-module voor Rollups kunnen worden, en MegaETH zou een plug-in voor prestatieversnelling kunnen worden voor mainstream L2's. De twee kunnen uiteindelijk samenkomen om de twee vleugels te vormen van de krachtige gedistribueerde uitvoeringsengine in de toekomstige Web3-wereld. 5. Toekomstige kansen en uitdagingen van parallel computing Naarmate parallel computing overgaat van op papier gebaseerd ontwerp naar on-chain implementatie, wordt het potentieel dat het ontsluit concreter en meetbaarder. Aan de ene kant hebben we gezien dat nieuwe ontwikkelingsparadigma's en bedrijfsmodellen zijn begonnen met het herdefiniëren van "on-chain prestaties": complexere chain game-logica, realistischere levenscyclus van AI-agenten, meer real-time protocol voor gegevensuitwisseling, meer meeslepende interactieve ervaring en zelfs on-chain collaboratief Super App-besturingssysteem veranderen allemaal van "kunnen we het doen" naar "hoe goed we het kunnen". Aan de andere kant is wat de overgang naar parallel computing echt drijft niet alleen de lineaire verbetering van de systeemprestaties, maar ook de structurele verandering van de cognitieve grenzen van ontwikkelaars en ecologische migratiekosten. Net zoals de introductie van het Turing-complete contractmechanisme door Ethereum leidde tot de multidimensionale explosie van DeFi, NFT en DAO, leidt de "asynchrone reconstructie tussen staat en instructie" tot stand gebracht door parallel computing ook tot het ontstaan van een nieuw on-chain wereldmodel, dat niet alleen een revolutie is in uitvoeringsefficiëntie, maar ook een broeinest van splijtingsinnovatie in productstructuur. Allereerst is vanuit het perspectief van kansen het meest directe voordeel het "opheffen van het toepassingsplafond". De meeste van de huidige DeFi-, gaming- en sociale toepassingen worden beperkt door knelpunten in de staat, gaskosten en latentie, en kunnen niet echt op grote schaal hoogfrequente interacties in de keten vervoeren. Als we kettinggames als voorbeeld nemen, bestaat GameFi met echte bewegingsfeedback, hoogfrequente gedragssynchronisatie en real-time gevechtslogica bijna niet, omdat de lineaire uitvoering van traditionele EVM de uitzendbevestiging van tientallen statusveranderingen per seconde niet kan ondersteunen. Met de ondersteuning van parallel computing, door middel van mechanismen zoals transactie-DAG's en asynchrone contexten op contractniveau, kunnen ketens met een hoge gelijktijdigheid worden geconstrueerd en kunnen deterministische uitvoeringsresultaten worden gegarandeerd door middel van snapshot-consistentie, om een structurele doorbraak in de "on-chain game engine" te bereiken. Evenzo zal de inzet en werking van AI-agents aanzienlijk worden verbeterd door parallel computing. In het verleden hadden we de neiging om AI-agenten off-chain uit te voeren en hun gedragsresultaten alleen te uploaden naar on-chain-contracten, maar in de toekomst kan on-chain asynchrone samenwerking en statusdeling tussen meerdere AI-entiteiten ondersteunen door middel van parallelle transactieplanning, om zo de real-time autonome logica van Agent on-chain echt te realiseren. Parallel computing zal de infrastructuur zijn voor dit "gedragsgestuurde contract", waardoor Web3 van een "transactie als een asset" naar een nieuwe wereld van "interactie als agent" wordt gedreven. Ten tweede zijn de toolchain voor ontwikkelaars en de abstractielaag van virtuele machines ook structureel hervormd als gevolg van parallellisatie. Het traditionele Solidity-ontwikkelingsparadigma is gebaseerd op een serieel denkmodel, waarbij ontwikkelaars gewend zijn om logica te ontwerpen als een single-threaded toestandsverandering, maar in parallelle computerarchitecturen zullen ontwikkelaars gedwongen worden na te denken over lees-/schrijfsetconflicten, statusisolatiebeleid, transactieatomiciteit en zelfs architectuurpatronen introduceren op basis van berichtwachtrijen of statuspijplijnen. Deze sprong in cognitieve structuur heeft ook geleid tot de snelle opkomst van een nieuwe generatie gereedschapsketens. Parallelle raamwerken voor slimme contracten die transactionele afhankelijkheidsdeclaraties ondersteunen, IR-gebaseerde optimalisatiecompilers en gelijktijdige debuggers die de simulatie van snapshots van transacties ondersteunen, zullen bijvoorbeeld allemaal broeinesten worden voor infrastructuurexplosies in de nieuwe cyclus. Tegelijkertijd heeft de voortdurende evolutie van modulaire blockchains ook een uitstekend landingspad voor parallel computing opgeleverd: Monad kan in L2 Rollup worden ingevoegd als een uitvoeringsmodule, MegaETH kan worden ingezet als een EVM-vervanging voor reguliere ketens, Celestia biedt ondersteuning voor de beschikbaarheid van gegevens en EigenLayer biedt een gedecentraliseerd validatornetwerk, waardoor een krachtige geïntegreerde architectuur wordt gevormd van de onderliggende gegevens tot de uitvoeringslogica. De vooruitgang van parallel computing is echter geen gemakkelijke weg, en de uitdagingen zijn nog structureler en moeilijker te knagen dan de kansen. Aan de ene kant liggen de belangrijkste technische problemen in de "consistentiegarantie van gelijktijdigheid van de staat" en de "strategie voor het omgaan met transactieconflicten". In tegenstelling tot off-chain databases, kan on-chain geen willekeurige mate van terugdraaiing van transacties of intrekking van de staat tolereren, en eventuele uitvoeringsconflicten moeten van tevoren worden gemodelleerd of nauwkeurig worden gecontroleerd tijdens het evenement. Dit betekent dat de parallelle planner een sterke constructie van afhankelijkheidsgrafieken en conflictvoorspellingsmogelijkheden moet hebben, en tegelijkertijd een efficiënt optimistisch uitvoeringsfouttolerantiemechanisme moet ontwerpen, anders is het systeem vatbaar voor "gelijktijdige foutherhalingsstorm" onder hoge belasting, die niet alleen toeneemt maar ook afneemt en zelfs keteninstabiliteit veroorzaakt. Bovendien is het huidige beveiligingsmodel van de multi-threaded uitvoeringsomgeving nog niet volledig vastgesteld, zoals de precisie van het toestandsisolatiemechanisme tussen threads, het nieuwe gebruik van re-entrancy-aanvallen in asynchrone contexten en de gasexplosie van cross-threaded contractaanroepen, allemaal nieuwe problemen die moeten worden opgelost. Meer verraderlijke uitdagingen komen voort uit ecologische en psychologische aspecten. Of ontwikkelaars bereid zijn om naar het nieuwe paradigma te migreren, of ze de ontwerpmethoden van parallelle modellen onder de knie kunnen krijgen, en of ze bereid zijn om enige leesbaarheid en contractcontroleerbaarheid op te geven voor prestatievoordelen, zijn de sleutel tot de vraag of parallel computing ecologische potentiële energie kan vormen. In de afgelopen jaren hebben we gezien dat een aantal ketens met superieure prestaties maar zonder ondersteuning voor ontwikkelaars geleidelijk stil vallen, zoals NEAR, Avalanche en zelfs sommige Cosmos SDK-ketens met veel betere prestaties dan EVM, en hun ervaring herinnert ons eraan dat er zonder ontwikkelaars geen ecosysteem is; Zonder ecologie, hoe goed de voorstelling ook is, is het slechts een luchtkasteel. Daarom moeten parallelle computerprojecten niet alleen de sterkste motor zijn, maar ook het meest zachte ecologische transitiepad maken, zodat "prestaties de out-of-the-box zijn" in plaats van "prestaties de cognitieve drempel zijn". Uiteindelijk is de toekomst van parallel computing zowel een triomf voor systeemtechniek als een test voor ecodesign. Het zal ons dwingen om opnieuw te onderzoeken "wat is de essentie van de keten": is het een gedecentraliseerde afwikkelingsmachine, of een wereldwijd gedistribueerde real-time state orchestrator? Als dit laatste het geval is, zullen de mogelijkheden van staatsdoorvoer, gelijktijdigheid van transacties en contractresponsiviteit, die voorheen werden beschouwd als "technische details van de keten", uiteindelijk de primaire indicatoren worden die de waarde van de keten bepalen. Het parallelle computerparadigma dat deze overgang echt voltooit, zal in deze nieuwe cyclus ook de meest kern- en meest samengestelde infrastructuurprimitieven worden, en de impact ervan zal veel verder gaan dan een technische module, en kan een keerpunt vormen in het algemene computerparadigma van Web3. 6. Conclusie: Is parallel computing de beste weg voor Web3-native schaalvergroting? Van alle paden die de grenzen van Web3-prestaties verkennen, is parallel computing niet het gemakkelijkst te implementeren, maar het komt misschien wel het dichtst in de buurt van de essentie van blockchain. Het migreert niet off-chain, noch offert het decentralisatie op in ruil voor doorvoer, maar probeert het uitvoeringsmodel zelf te reconstrueren in de atomiciteit en het determinisme van de keten, van de transactielaag, contractlaag en virtuele machinelaag tot de wortel van het prestatieknelpunt. Deze "native to the chain" schaalmethode behoudt niet alleen het kernvertrouwensmodel van de blockchain, maar reserveert ook duurzame prestatiegrond voor complexere on-chain toepassingen in de toekomst. De moeilijkheid ligt in de structuur en de charme ligt in de structuur. Als modulaire refactoring de "architectuur van de keten" is, dan is parallel computing refactoring de "ziel van de keten". Dit is misschien geen kortere weg naar de douaneafhandeling, maar het is waarschijnlijk de enige duurzame positieve oplossing in de langetermijnevolutie van Web3. We zijn getuige van een architecturale overgang van single-core CPU's naar multi-core/threaded besturingssystemen, en het uiterlijk van Web3-native besturingssystemen kan verborgen zijn in deze in-chain parallelle experimenten.
Origineel weergeven
120,76K
1
Odaily
Odaily
1. Inleiding: Uitbreiding is een eeuwige propositie, en parallellisme is het ultieme slagveld Sinds de geboorte van Bitcoin heeft het blockchain-systeem altijd te maken gehad met een onvermijdelijk kernprobleem: schaalvergroting. Bitcoin verwerkt minder dan 10 transacties per seconde en Ethereum worstelt om het prestatieknelpunt van tientallen TPS (transacties per seconde) te doorbreken, wat vooral omslachtig is in de traditionele Web2-wereld, waar vaak tienduizenden TPS worden gebruikt. Wat nog belangrijker is, dit is geen eenvoudig probleem dat kan worden opgelost door "servers toe te voegen", maar een systemische beperking die diep verankerd is in de onderliggende consensus en het structurele ontwerp van de blockchain - dat wil zeggen, de onmogelijke driehoek van de blockchain waar "decentralisatie, veiligheid en schaalbaarheid" niet kunnen worden gecombineerd. In het afgelopen decennium hebben we talloze uitbreidingspogingen zien stijgen en dalen. Van de Bitcoin-schaaloorlog tot de Ethereum-sharding-visie, van staatskanalen en plasma tot rollups en modulaire blockchains, van off-chain uitvoering in Layer 2 tot structurele refactoring van gegevensbeschikbaarheid, de hele industrie is begonnen aan een schaalpad vol technische verbeeldingskracht. Als het meest geaccepteerde schaalparadigma heeft rollup het doel bereikt om TPS aanzienlijk te verhogen, terwijl de uitvoeringslast van de hoofdketen wordt verminderd en de veiligheid van Ethereum behouden blijft. Maar het raakt niet de echte grenzen van de onderliggende "single-chain prestaties" van de blockchain, vooral niet op uitvoeringsniveau, wat de doorvoer van het blok zelf is - wordt nog steeds beperkt door het oude verwerkingsparadigma van on-chain seriële berekening. Hierdoor is in-chain parallel computing geleidelijk het gezichtsveld van de industrie binnengekomen. Anders dan off-chain schaling en cross-chain distributie, probeert intra-chain parallellisme de uitvoeringsengine volledig te reconstrueren met behoud van de single-chain atomiciteit en geïntegreerde structuur, en upgradet de blockchain van een single-threaded modus van "seriële uitvoering van één transactie door één" naar een high-concurrency computing-systeem van "multi-threading + pipeline + dependency scheduling" onder begeleiding van modern besturingssysteem en CPU-ontwerp. Een dergelijk pad kan niet alleen een honderdvoudige toename van de doorvoer bereiken, maar kan ook een belangrijke voorwaarde worden voor de explosie van slimme contracttoepassingen. In feite is single-threaded computing in het Web2-computerparadigma al lang geëlimineerd door moderne hardware-architecturen en vervangen door een eindeloze stroom optimalisatiemodellen zoals parallel programmeren, asynchrone planning, threadpools en microservices. Blockchain, als een primitiever en conservatiever computersysteem met extreem hoge eisen aan zekerheid en verifieerbaarheid, is nooit in staat geweest om volledig gebruik te maken van deze parallelle computerideeën. Dit is zowel een beperking als een kans. Nieuwe ketens zoals Solana, Sui en Aptos zijn de eersten die deze verkenning beginnen door parallellisme op architectonisch niveau te introduceren. Opkomende projecten zoals Monad en MegaETH hebben het on-chain parallellisme verder verheven tot doorbraken in diepe mechanismen zoals pipeline-uitvoering, optimistische gelijktijdigheid en asynchrone berichtgestuurde, met kenmerken die steeds dichter bij moderne besturingssystemen komen. Men kan zeggen dat parallel computing niet alleen een "methode voor prestatie-optimalisatie" is, maar ook een keerpunt in het paradigma van het blockchain-uitvoeringsmodel. Het daagt de fundamentele patronen van de uitvoering van slimme contracten uit en herdefinieert de basislogica van transactieverpakking, statustoegang, aanroeprelaties en opslaglay-out. Als rollup "het verplaatsen van transacties naar off-chain uitvoering" is, dan is on-chain parallellisme "het bouwen van supercomputing-cores on-chain", en het doel is niet alleen om de doorvoer te verbeteren, maar om echt duurzame infrastructuurondersteuning te bieden voor toekomstige Web3-native applicaties (high-frequency trading, game-engines, uitvoering van AI-modellen, on-chain social, enz.). Nadat het rollup-traject geleidelijk homogeen wordt, wordt parallellisme binnen de keten stilletjes de doorslaggevende variabele van de nieuwe cyclus van Layer 1-competitie. Prestaties zijn niet langer alleen "sneller", maar de mogelijkheid om een hele heterogene applicatiewereld te kunnen ondersteunen. Dit is niet alleen een technische race, maar ook een paradigmastrijd. De volgende generatie soevereine uitvoeringsplatforms in de Web3-wereld zal waarschijnlijk voortkomen uit dit parallelle worstelen binnen de keten. 2. Panorama van het expansieparadigma: vijf soorten routes, elk met zijn eigen accenten Capaciteitsuitbreiding, als een van de belangrijkste, meest duurzame en moeilijke onderwerpen in de evolutie van de technologie van de publieke keten, heeft het afgelopen decennium geleid tot de opkomst en evolutie van bijna alle reguliere technologiepaden. Beginnend met de strijd om de blokgrootte van Bitcoin, is deze technische wedstrijd over "hoe de keten sneller te laten lopen" uiteindelijk opgedeeld in vijf basisroutes, die elk vanuit een andere invalshoek in het knelpunt snijden, met zijn eigen technische filosofie, landingsmoeilijkheidsgraad, risicomodel en toepasbare scenario's. De eerste route is de meest eenvoudige on-chain scaling, wat betekent dat de blokgrootte wordt vergroot, de bloktijd wordt verkort of de verwerkingskracht wordt verbeterd door de gegevensstructuur en het consensusmechanisme te optimaliseren. Deze aanpak is de focus geweest van het debat over Bitcoin-schaling, wat aanleiding heeft gegeven tot "big block" factievorken zoals BCH en BSV, en ook tot invloed heeft op de ontwerpideeën van vroege high-performance openbare ketens zoals EOS en NEO. Het voordeel van dit soort route is dat het de eenvoud van single-chain consistentie behoudt, wat gemakkelijk te begrijpen en te implementeren is, maar het is ook heel gemakkelijk om de systemische bovengrens te raken, zoals centralisatierisico, stijgende operationele kosten van knooppunten en verhoogde synchronisatiemoeilijkheid, dus het is niet langer de mainstream kernoplossing in het huidige ontwerp, maar is meer een extra collocatie van andere mechanismen geworden. Het tweede type route is off-chain schaling, die wordt vertegenwoordigd door staatskanalen en sidechains. Het basisidee van dit type pad is om het grootste deel van de transactieactiviteit off-chain te verplaatsen en alleen het eindresultaat naar de hoofdketen te schrijven, die fungeert als de uiteindelijke afwikkelingslaag. In termen van technische filosofie ligt het dicht bij de asynchrone architectuur van Web2 - probeer zware transactieverwerking aan de periferie te laten, en de hoofdketen doet minimale betrouwbare verificatie. Hoewel dit idee theoretisch oneindig schaalbaar kan zijn, beperken het vertrouwensmodel, de fondsbeveiliging en de interactiecomplexiteit van off-chain transacties de toepassing ervan. Hoewel Lightning Network bijvoorbeeld een duidelijke positionering van financiële scenario's heeft, is de schaal van het ecosysteem nooit geëxplodeerd. Ontwerpen op basis van meerdere sidechains, zoals Polygon POS, hebben echter niet alleen een hoge doorvoer, maar leggen ook de nadelen bloot van moeilijke overerving van de beveiliging van de hoofdketen. Het derde type route is de meest populaire en meest ingezette Layer 2 rollup route. Deze methode verandert de hoofdketen zelf niet direct, maar schaalt door het mechanisme van off-chain uitvoering en on-chain verificatie. Optimistic Rollup en ZK Rollup hebben hun eigen voordelen: de eerste is snel te implementeren en zeer compatibel, maar heeft de problemen van vertraging in de uitdagingsperiode en fraudebestendigheidsmechanisme; De laatste heeft een sterke beveiliging en goede gegevenscompressiemogelijkheden, maar is complex om te ontwikkelen en mist EVM-compatibiliteit. Het maakt niet uit wat voor soort rollup het is, de essentie is om de uitvoeringskracht uit te besteden, terwijl gegevens en verificatie op de hoofdketen worden gehouden, waardoor een relatief evenwicht wordt bereikt tussen decentralisatie en hoge prestaties. De snelle groei van projecten zoals Arbitrum, Optimism, zkSync en StarkNet bewijst de haalbaarheid van dit pad, maar het legt ook knelpunten op de middellange termijn bloot, zoals een te grote afhankelijkheid van gegevensbeschikbaarheid (DA), hoge kosten en gefragmenteerde ontwikkelingservaring. Het vierde type route is de modulaire blockchain-architectuur die de afgelopen jaren is ontstaan, zoals Celestia, Avail, EigenLayer, enz. Het modulaire paradigma pleit voor de volledige ontkoppeling van de kernfuncties van de blockchain - uitvoering, consensus, beschikbaarheid van gegevens en afwikkeling - door meerdere gespecialiseerde ketens om verschillende functies te voltooien en deze vervolgens te combineren tot een schaalbaar netwerk met een cross-chain protocol. Deze richting wordt sterk beïnvloed door de modulaire architectuur van het besturingssysteem en de samenstelbaarheid van cloud computing, die het voordeel heeft dat systeemcomponenten flexibel kunnen worden vervangen en de efficiëntie op specifieke gebieden zoals DA aanzienlijk kan worden verbeterd. De uitdagingen zijn echter ook heel duidelijk: de kosten van synchronisatie, verificatie en wederzijds vertrouwen tussen systemen na ontkoppeling van modules zijn extreem hoog, het ontwikkelaarsecosysteem is extreem gefragmenteerd en de vereisten voor protocolstandaarden op middellange en lange termijn en cross-chain beveiliging zijn veel hoger dan die van traditioneel ketenontwerp. In wezen bouwt dit model niet langer een "keten", maar bouwt het een "ketennetwerk", wat een ongekende drempel naar voren brengt voor het algehele begrip van de architectuur en de werking en het onderhoud. Het laatste type route, waarop de volgende analyse in dit artikel centraal staat, is het optimalisatiepad voor parallelle computing binnen de keten. In tegenstelling tot de eerste vier soorten "horizontale splitsing", die voornamelijk "horizontale splitsing" uitvoeren vanaf het structurele niveau, legt parallel computing de nadruk op "verticale upgrade", dat wil zeggen dat de gelijktijdige verwerking van atomaire transacties wordt gerealiseerd door de architectuur van de uitvoeringsengine binnen een enkele keten te veranderen. Dit vereist het herschrijven van de VM-planningslogica en het introduceren van een complete set moderne planningsmechanismen voor computersystemen, zoals analyse van transactieafhankelijkheid, voorspelling van statusconflicten, parallellismecontrole en asynchroon aanroepen. Solana is het eerste project dat het concept van parallelle VM implementeert in een systeem op ketenniveau, dat multi-core parallelle uitvoering realiseert door middel van het beoordelen van transactieconflicten op basis van het accountmodel. De nieuwe generatie projecten, zoals Monad, Sei, Fuel, MegaETH, enz., probeert verder geavanceerde ideeën te introduceren, zoals pijplijnuitvoering, optimistische gelijktijdigheid, opslagpartitionering en parallelle ontkoppeling om krachtige uitvoeringskernen te bouwen die vergelijkbaar zijn met moderne CPU's. Het belangrijkste voordeel van deze richting is dat het niet hoeft te vertrouwen op de multi-chain-architectuur om een doorbraak in de doorvoerlimiet te bereiken, en tegelijkertijd voldoende rekenflexibiliteit biedt voor de uitvoering van complexe slimme contracten, wat een belangrijke technische voorwaarde is voor toekomstige toepassingsscenario's zoals AI Agent, grootschalige ketenspellen en hoogfrequente afgeleiden. Als we naar de bovenstaande vijf soorten schaalpaden kijken, is de divisie erachter eigenlijk de systematische afweging tussen prestaties, composability, beveiliging en ontwikkelingscomplexiteit van blockchain. Rollup is sterk in consensusoutsourcing en veilige overerving, modulariteit benadrukt structurele flexibiliteit en hergebruik van componenten, off-chain schaalpogingen om het knelpunt van de hoofdketen te doorbreken, maar de vertrouwenskosten zijn hoog, en intra-chain parallellisme richt zich op de fundamentele upgrade van de uitvoeringslaag, in een poging de prestatielimiet van moderne gedistribueerde systemen te benaderen zonder de consistentie van de keten te vernietigen. Het is onmogelijk voor elk pad om alle problemen op te lossen, maar het zijn deze richtingen die samen een panorama vormen van de upgrade van het Web3-computerparadigma en ook ontwikkelaars, architecten en investeerders extreem rijke strategische opties bieden. Net zoals het besturingssysteem is verschoven van single-core naar multi-core en databases zijn geëvolueerd van sequentiële indexen naar gelijktijdige transacties, zal de uitbreiding van Web3 uiteindelijk evolueren naar een zeer parallel uitvoeringstijdperk. In dit tijdperk zijn prestaties niet langer alleen een race om de kettingsnelheid, maar een uitgebreide belichaming van de onderliggende ontwerpfilosofie, diepgaande kennis van de architectuur, samenwerking tussen software en hardware en systeemcontrole. En parallellisme binnen de keten kan het ultieme slagveld zijn van deze langdurige oorlog. 3. Parallel Computing Classification Graph: vijf paden van account naar instructie In de context van de voortdurende evolutie van blockchain-schaaltechnologie is parallel computing geleidelijk het kernpad geworden voor doorbraken op het gebied van prestaties. Anders dan de horizontale ontkoppeling van de structuurlaag, netwerklaag of gegevensbeschikbaarheidslaag, is parallelle computing een diepe mijnbouw op de uitvoeringslaag, die verband houdt met de laagste logica van de operationele efficiëntie van de blockchain, en de reactiesnelheid en verwerkingscapaciteit van een blockchain-systeem bepaalt in het licht van hoge gelijktijdigheid en complexe transacties van meerdere typen. Uitgaande van het uitvoeringsmodel en een overzicht van de ontwikkeling van deze technologielijn, kunnen we een duidelijke classificatiekaart van parallel computing opstellen, die grofweg kan worden onderverdeeld in vijf technische paden: parallellisme op accountniveau, parallellisme op objectniveau, parallellisme op transactieniveau, parallellisme op virtueel machineniveau en parallellisme op instructieniveau. Deze vijf soorten paden, van grofkorrelig tot fijnkorrelig, zijn niet alleen het continue verfijningsproces van parallelle logica, maar ook het pad van toenemende systeemcomplexiteit en planningsmoeilijkheid. Het vroegste parallellisme op accountniveau werd vertegenwoordigd door Solana. Dit model is gebaseerd op het ontkoppelingsontwerp van rekening en staat en bepaalt of er een conflicterende relatie is door de set rekeningen die bij de transactie betrokken zijn statisch te analyseren. Als twee transacties toegang hebben tot een set accounts die elkaar niet overlappen, kunnen ze gelijktijdig worden uitgevoerd op meerdere kernen. Dit mechanisme is ideaal voor het omgaan met goed gestructureerde transacties met duidelijke inputs en outputs, vooral voor programma's met voorspelbare paden zoals DeFi. De natuurlijke veronderstelling is echter dat accounttoegang voorspelbaar is en dat staatsafhankelijkheid statisch kan worden afgeleid, waardoor het vatbaar is voor conservatieve uitvoering en verminderd parallellisme in het licht van complexe slimme contracten (zoals dynamisch gedrag zoals kettingspellen en AI-agenten). Bovendien zorgt de onderlinge afhankelijkheid tussen rekeningen er ook voor dat parallelle rendementen in bepaalde scenario's met hoge frequentie worden verzwakt. De runtime van Solana is in dit opzicht sterk geoptimaliseerd, maar de kernplanningsstrategie wordt nog steeds beperkt door de granulariteit van het account. Verdere verfijning Op basis van het rekenmodel komen we op het technische niveau van parallellisme op objectniveau. Parallellisme op objectniveau introduceert semantische abstractie van bronnen en modules, met gelijktijdige planning in meer fijnmazige eenheden van "toestandsobjecten". Aptos en Sui zijn belangrijke verkenners in deze richting, vooral de laatste, die het eigendom en de variabiliteit van bronnen tijdens het compileren definieert via het lineaire typesysteem van de Move-taal, waardoor de runtime nauwkeurig kan controleren of conflicten met toegang tot bronnen kunnen worden beheerd. Vergeleken met parallellisme op accountniveau is deze methode veelzijdiger en schaalbaarder, kan complexere lees- en schrijflogica van staten bestrijken en bedient natuurlijk zeer heterogene scenario's zoals games, sociale netwerken en AI. Parallellisme op objectniveau introduceert echter ook een hogere taaldrempel en ontwikkelingscomplexiteit, en Move is geen directe vervanging voor Solidity, en de hoge kosten van ecologisch schakelen beperken de popularisering van het parallelle paradigma. Verdere parallelliteit op transactieniveau is de richting die wordt verkend door de nieuwe generatie high-performance ketens, vertegenwoordigd door Monad, Sei en Fuel. In plaats van staten of accounts te behandelen als de kleinste eenheid van parallellisme, is het pad opgebouwd rond een afhankelijkheidsgrafiek rond de hele transactie zelf. Het behandelt transacties als atomaire operationele eenheden, bouwt transactiegrafieken (Transaction DAG's) door middel van statische of dynamische analyse en vertrouwt op planners voor de uitvoering van gelijktijdige stromen. Dit ontwerp stelt het systeem in staat om mining-parallellisme te maximaliseren zonder dat het de onderliggende toestandsstructuur volledig hoeft te begrijpen. Monad is vooral opmerkelijk vanwege de combinatie van moderne database-enginetechnologieën zoals Optimistic Concurrency Control (OCC), Parallel Pipeline Scheduling en Out-of-Order Execution, waardoor chain-uitvoering dichter bij het paradigma van de "GPU-planner" komt. In de praktijk vereist dit mechanisme uiterst complexe afhankelijkheidsmanagers en conflictdetectoren, en de planner zelf kan ook een knelpunt worden, maar de potentiële doorvoercapaciteit is veel hoger dan die van het account- of objectmodel, waardoor het de meest theoretische kracht is in het huidige parallelle computerspoor. Parallellisme op virtueel-machineniveau, aan de andere kant, integreert gelijktijdige uitvoeringsmogelijkheden rechtstreeks in de onderliggende instructieplanningslogica van de VM, waarbij ernaar wordt gestreefd de inherente beperkingen van de uitvoering van EVM-sequenties volledig te doorbreken. MegaETH, als een "super virtueel machine-experiment" binnen het Ethereum-ecosysteem, probeert de EVM opnieuw te ontwerpen om multi-threaded gelijktijdige uitvoering van slimme contractcode te ondersteunen. De onderliggende laag zorgt ervoor dat elk contract onafhankelijk kan worden uitgevoerd in verschillende uitvoeringscontexten via mechanismen zoals gesegmenteerde uitvoering, statussegmentatie en asynchrone aanroep, en zorgt voor uiteindelijke consistentie met behulp van een parallelle synchronisatielaag. Het moeilijkste aspect van deze aanpak is dat deze volledig compatibel moet zijn met de bestaande semantiek van EVM-gedrag, terwijl de hele uitvoeringsomgeving en het gasmechanisme worden vernieuwd om het Solidity-ecosysteem soepel te laten migreren naar een parallel framework. De uitdaging is niet alleen de diepte van de technologiestack, maar ook de acceptatie van belangrijke protocolwijzigingen in de politieke L1-structuur van Ethereum. Maar als het lukt, belooft MegaETH een "multi-core processorrevolutie" te worden in de EVM-ruimte. Het laatste type pad is parallellisme op instructieniveau, dat het meest fijnmazig is en de hoogste technische drempel heeft. Het idee is afgeleid van de Out-of-Order Execution and Instruction Pipeline in modern CPU-ontwerp. Dit paradigma stelt dat, aangezien elk slim contract uiteindelijk wordt gecompileerd in bytecode-instructies, het heel goed mogelijk is om elke bewerking parallel te plannen en te herschikken als een CPU die de x 86-instructieset uitvoert. Het Fuel-team heeft in eerste instantie een herbestelbaar uitvoeringsmodel op instructieniveau geïntroduceerd in zijn FuelVM, en op de lange termijn, zodra de blockchain-uitvoeringsengine voorspellende uitvoering en dynamische herschikking van instructieafhankelijke personen implementeert, zal het parallellisme zijn theoretische limiet bereiken. Deze aanpak kan zelfs het co-design van blockchain en hardware naar een geheel nieuw niveau tillen, waardoor de keten een echte "gedecentraliseerde computer" wordt in plaats van alleen een "gedistribueerd grootboek". Natuurlijk bevindt dit pad zich nog in de theoretische en experimentele fase, en de relevante planners en beveiligingsverificatiemechanismen zijn nog niet volwassen, maar het wijst op de ultieme grens van de toekomst van parallel computing. Samenvattend vormen de vijf paden van account, object, transactie, VM en instructie het ontwikkelingsspectrum van intra-chain parallel computing, van statische gegevensstructuur tot dynamisch planningsmechanisme, van voorspelling van statustoegang tot herschikking op instructieniveau, elke stap van parallelle technologie betekent een aanzienlijke toename van de systeemcomplexiteit en ontwikkelingsdrempel. Maar tegelijkertijd markeren ze ook een paradigmaverschuiving in het computermodel van blockchain, van het traditionele full-sequence consensusboek naar een krachtige, voorspelbare en verzendbare gedistribueerde uitvoeringsomgeving. Dit is niet alleen een inhaalslag met de efficiëntie van Web2 cloud computing, maar ook een diepgaande opvatting van de ultieme vorm van "blockchain-computer". De selectie van parallelle paden voor verschillende openbare ketens zal ook de draaglijke bovengrens van hun toekomstige applicatie-ecosystemen bepalen, evenals hun kernconcurrentievermogen in scenario's zoals AI Agent, chain games en on-chain high-frequency trading. Ten vierde worden de twee hoofdsporen toegelicht: Monad vs MegaETH Van de vele paden van parallelle computerevolutie zijn de twee belangrijkste technische routes met de meeste focus, de hoogste stem en het meest complete verhaal in de huidige markt ongetwijfeld de "parallelle computerketen helemaal opnieuw opbouwen" vertegenwoordigd door Monad en de "parallelle revolutie binnen EVM" vertegenwoordigd door MegaETH. Deze twee zijn niet alleen de meest intensieve R&D-richtingen voor de huidige cryptografische primitieve ingenieurs, maar ook de meest beslissende polaire symbolen in de huidige Web3-computerprestatierace. Het verschil tussen de twee ligt niet alleen in het uitgangspunt en de stijl van de technische architectuur, maar ook in de ecologische objecten die ze dienen, de migratiekosten, de uitvoeringsfilosofie en het toekomstige strategische pad erachter. Ze vertegenwoordigen een parallelle paradigma-concurrentie tussen "reconstructionisme" en "compatibiliteitsisme", en hebben de verbeelding van de markt over de uiteindelijke vorm van high-performance ketens diepgaand beïnvloed. Monad is door en door een "computationele fundamentalist", en zijn ontwerpfilosofie is niet ontworpen om compatibel te zijn met bestaande EVM's, maar eerder om de onderliggende manier waarop blockchain-uitvoeringsengines inventief werken opnieuw te definiëren, geïnspireerd door moderne databases en krachtige multi-core systemen. Het kerntechnologiesysteem is gebaseerd op volwassen mechanismen op het gebied van databases, zoals Optimistic Concurrency Control, Transaction DAG Scheduling, Out-of-Order Execution en Pipelined Execution, met als doel de transactieverwerkingsprestaties van de keten te verhogen tot de orde van miljoenen TPS. In de Monad-architectuur zijn de uitvoering en volgorde van transacties volledig ontkoppeld en bouwt het systeem eerst een grafiek voor transactieafhankelijkheid en geeft deze vervolgens door aan de planner voor parallelle uitvoering. Alle transacties worden behandeld als atomaire eenheden van transacties, met expliciete lees-schrijfsets en snapshots van de status, en planners voeren optimistisch uit op basis van afhankelijkheidsgrafieken, waarbij ze worden teruggedraaid en opnieuw worden uitgevoerd wanneer er conflicten optreden. Dit mechanisme is uiterst complex in termen van technische implementatie, en vereist de constructie van een uitvoeringsstack die vergelijkbaar is met die van een moderne databasetransactiemanager, evenals de introductie van mechanismen zoals caching op meerdere niveaus, prefetching, parallelle validatie, enz., om de latentie van de uiteindelijke state commit te comprimeren, maar het kan theoretisch de doorvoerlimiet verleggen tot hoogten die niet worden voorgesteld door de huidige keten. Wat nog belangrijker is, Monad heeft de interoperabiliteit met de EVM niet opgegeven. Het gebruikt een tussenlaag die vergelijkbaar is met "Solidity-Compatible Intermediate Language" om ontwikkelaars te ondersteunen bij het schrijven van contracten in Solidity-syntaxis en tegelijkertijd het uitvoeren van intermediaire taaloptimalisatie en parallellisatieplanning in de uitvoeringsengine. Deze ontwerpstrategie van "oppervlaktecompatibiliteit en bodemrefactoring" behoudt niet alleen de vriendelijkheid van ecologische ontwikkelaars van Ethereum, maar bevrijdt ook het onderliggende uitvoeringspotentieel in de grootste mate, wat een typische technische strategie is van "het slikken van de EVM en het vervolgens deconstrueren". Dit betekent ook dat zodra Monad is gelanceerd, het niet alleen een soevereine keten zal worden met extreme prestaties, maar ook een ideale uitvoeringslaag voor Layer 2 rollup-netwerken, en zelfs een "pluggable high-performance core" voor andere chain execution modules op de lange termijn. Vanuit dit oogpunt is Monad niet alleen een technische route, maar ook een nieuwe logica van het ontwerp van systeemsoevereiniteit, die pleit voor de "modularisering-prestatie-herbruikbaarheid" van de uitvoeringslaag, om zo een nieuwe standaard te creëren voor inter-chain collaborative computing. In tegenstelling tot Monad's "nieuwe wereldbouwer"-houding, is MegaETH een compleet tegenovergesteld soort project, dat ervoor kiest om te beginnen met de bestaande wereld van Ethereum en een aanzienlijke toename van de uitvoeringsefficiëntie te bereiken met minimale wijzigingskosten. MegaETH vernietigt de EVM-specificatie niet, maar probeert parallelle computermogelijkheden in te bouwen in de uitvoeringsengine van bestaande EVM's, waardoor een toekomstige versie van de "multi-core EVM" ontstaat. De grondgedachte ligt in een volledige refactoring van het huidige EVM-instructie-uitvoeringsmodel met mogelijkheden zoals isolatie op threadniveau, asynchrone uitvoering op contractniveau en conflictdetectie van statustoegang, waardoor meerdere slimme contracten tegelijkertijd in hetzelfde blok kunnen worden uitgevoerd en uiteindelijk statuswijzigingen kunnen samenvoegen. Dit model vereist dat ontwikkelaars aanzienlijke prestatieverbeteringen behalen met hetzelfde contract dat op de MegaETH-keten is geïmplementeerd zonder bestaande Solidity-contracten te wijzigen, met behulp van nieuwe talen of toolchains. Dit pad van "conservatieve revolutie" is buitengewoon aantrekkelijk, vooral voor het Ethereum L2-ecosysteem, omdat het een ideaal pad biedt naar pijnloze prestatie-upgrades zonder de noodzaak om syntaxis te migreren. De belangrijkste doorbraak van MegaETH ligt in het VM multi-threaded planningsmechanisme. Traditionele EVM's gebruiken een gestapeld, single-threaded uitvoeringsmodel, waarbij elke instructie lineair wordt uitgevoerd en statusupdates synchroon moeten plaatsvinden. MegaETH doorbreekt dit patroon en introduceert een asynchrone aanroepstack en uitvoeringscontextisolatiemechanisme, om gelijktijdige uitvoering van "gelijktijdige EVM-contexten" te bereiken. Elk contract kan zijn eigen logica aanroepen in een afzonderlijke thread, en alle threads zullen de status uniform detecteren en convergeren via de parallelle commitlaag wanneer de status uiteindelijk wordt ingediend. Dit mechanisme lijkt sterk op het JavaScript-multithreading-model van moderne browsers (Web Workers + Shared Memory + Lock-Free Data), dat het determinisme van het gedrag van de hoofdthread behoudt en een krachtig planningsmechanisme introduceert dat asynchroon op de achtergrond is. In de praktijk is dit ontwerp ook erg vriendelijk voor blokbouwers en zoekers, en kan het de mempool-ordening en MEV-opnamepaden optimaliseren volgens de parallelle strategie, waardoor een gesloten lus van economische voordelen op de uitvoeringslaag wordt gevormd. Wat nog belangrijker is, MegaETH kiest ervoor om diep verbonden te zijn met het Ethereum-ecosysteem, en de belangrijkste landingsplaats in de toekomst zal waarschijnlijk een EVM L2 Rollup-netwerk zijn, zoals Optimism, Base of Arbitrum Orbit-keten. Eenmaal op grote schaal toegepast, kan het bijna 100x prestatieverbetering bereiken bovenop de bestaande Ethereum-technologiestack zonder de contractsemantiek, het staatsmodel, de gaslogica, aanroepmethoden, enz. te veranderen, waardoor het een aantrekkelijke technologie-upgraderichting is voor EVM-conservatieven. Het MegaETH-paradigma is: zolang je nog steeds dingen op Ethereum doet, laat ik je computerprestaties omhoogschieten. Vanuit het perspectief van realisme en techniek is het gemakkelijker te implementeren dan Monad, en het is meer in lijn met het iteratieve pad van reguliere DeFi- en NFT-projecten, waardoor het een kandidaat is die op korte termijn meer kans heeft om ecologische steun te krijgen. In zekere zin zijn de twee routes van Monad en MegaETH niet alleen twee implementaties van parallelle technologiepaden, maar ook een klassieke confrontatie tussen "refactoring" en "compatibiliteit" in de blockchain-ontwikkelingsroute: de eerste streeft naar een paradigmadoorbraak en reconstrueert alle logica van virtuele machines tot onderliggend statusbeheer om ultieme prestaties en architecturale plasticiteit te bereiken; Deze laatste streeft naar stapsgewijze optimalisatie, waarbij traditionele systemen tot het uiterste worden gedreven met inachtneming van de bestaande ecologische beperkingen, waardoor de migratiekosten worden geminimaliseerd. Er zijn geen absolute voor- of nadelen tussen de twee, maar ze dienen verschillende ontwikkelaarsgroepen en ecosysteemvisies. Monad is meer geschikt voor het bouwen van nieuwe systemen vanaf nul, chain games die extreme doorvoer nastreven, AI-agents en modulaire uitvoeringsketens. MegaETH daarentegen is meer geschikt voor L2-projecten, DeFi-projecten en infrastructuurprotocollen die prestatie-upgrades willen bereiken met minimale ontwikkelingswijzigingen. Ze zijn als hogesnelheidstreinen op een nieuw spoor, opnieuw gedefinieerd van het spoor, het elektriciteitsnet naar de carrosserie, alleen maar om een ongekende snelheid en ervaring te bereiken; Een ander voorbeeld is het installeren van turbines op bestaande snelwegen, het verbeteren van de rijstrookplanning en de motorstructuur, waardoor voertuigen sneller kunnen rijden zonder het vertrouwde wegennet te verlaten. De twee kunnen op dezelfde manier eindigen: in de volgende fase van modulaire blockchain-architecturen zou Monad een "execution-as-a-service"-module voor Rollups kunnen worden, en MegaETH zou een plug-in voor prestatieversnelling kunnen worden voor mainstream L2's. De twee kunnen uiteindelijk samenkomen om de twee vleugels te vormen van de krachtige gedistribueerde uitvoeringsengine in de toekomstige Web3-wereld. 5. Toekomstige kansen en uitdagingen van parallel computing Naarmate parallel computing overgaat van op papier gebaseerd ontwerp naar on-chain implementatie, wordt het potentieel dat het ontsluit concreter en meetbaarder. Aan de ene kant zien we dat nieuwe ontwikkelingsparadigma's en bedrijfsmodellen zijn begonnen met het herdefiniëren van "on-chain prestaties": complexere chain game-logica, realistischere levenscyclus van AI-agenten, meer real-time protocollen voor gegevensuitwisseling, meer meeslepende interactieve ervaringen en zelfs on-chain collaboratieve Super App-besturingssystemen veranderen allemaal van "kunnen we het doen" naar "hoe goed kan het zijn". Aan de andere kant is wat de overgang naar parallel computing echt drijft niet alleen de lineaire verbetering van de systeemprestaties, maar ook de structurele verandering van de cognitieve grenzen van ontwikkelaars en ecologische migratiekosten. Net zoals de introductie van het Turing-complete contractmechanisme door Ethereum leidde tot de multidimensionale explosie van DeFi, NFT en DAO, leidt de "asynchrone reconstructie tussen staat en instructies" tot stand gebracht door parallel computing ook tot een nieuw on-chain wereldmodel, dat niet alleen een revolutie is in uitvoeringsefficiëntie, maar ook een broeinest van splijtingsinnovatie in productstructuur. Allereerst is vanuit het perspectief van kansen het meest directe voordeel het "opheffen van het toepassingsplafond". De meeste van de huidige DeFi-, gaming- en sociale toepassingen worden beperkt door knelpunten in de staat, gaskosten en latentie, en kunnen niet echt hoogfrequente interacties op schaal in de keten vervoeren. Als we kettinggames als voorbeeld nemen, bestaat GameFi met echte bewegingsfeedback, hoogfrequente gedragssynchronisatie en real-time gevechtslogica bijna niet, omdat de lineaire uitvoering van traditionele EVM's de uitzendbevestiging van tientallen statusveranderingen per seconde niet kan ondersteunen. Met de ondersteuning van parallel computing, door middel van mechanismen zoals transactie-DAG's en asynchrone contexten op contractniveau, kunnen ketens met een hoge gelijktijdigheid worden geconstrueerd en kunnen deterministische uitvoeringsresultaten worden gegarandeerd door middel van snapshot-consistentie, om een structurele doorbraak in de "on-chain game engine" te bereiken. Evenzo zal de inzet en werking van AI-agents aanzienlijk worden verbeterd door parallel computing. In het verleden hadden we de neiging om AI-agenten off-chain uit te voeren en hun gedragsresultaten alleen te uploaden naar on-chain-contracten, maar in de toekomst kan on-chain asynchrone samenwerking en statusdeling tussen meerdere AI-entiteiten ondersteunen door middel van parallelle transactieplanning, om zo de real-time autonome logica van Agent on-chain echt te realiseren. Parallel computing zal de infrastructuur zijn voor dit "gedragsgestuurde contract", waardoor Web3 van een "transactie als een asset" naar een nieuwe wereld van "interactie als agent" wordt gedreven. Ten tweede zijn de toolchain voor ontwikkelaars en de abstractielaag van virtuele machines ook structureel hervormd als gevolg van parallellisatie. Het traditionele Solidity-ontwikkelingsparadigma is gebaseerd op een serieel denkmodel, waarbij ontwikkelaars gewend zijn om logica te ontwerpen als een single-threaded toestandsverandering, maar in parallelle computerarchitecturen zullen ontwikkelaars gedwongen worden na te denken over lees-/schrijfsetconflicten, statusisolatiebeleid, transactieatomiciteit en zelfs architectuurpatronen introduceren op basis van berichtwachtrijen of statuspijplijnen. Deze sprong in cognitieve structuur heeft ook geleid tot de snelle opkomst van een nieuwe generatie gereedschapsketens. Parallelle raamwerken voor slimme contracten die transactionele afhankelijkheidsdeclaraties ondersteunen, IR-gebaseerde optimalisatiecompilers en gelijktijdige debuggers die de simulatie van snapshots van transacties ondersteunen, zullen bijvoorbeeld allemaal broeinesten worden voor infrastructuurexplosies in de nieuwe cyclus. Tegelijkertijd heeft de voortdurende evolutie van modulaire blockchains ook een uitstekend landingspad voor parallel computing opgeleverd: Monad kan in L2 Rollup worden ingevoegd als een uitvoeringsmodule, MegaETH kan worden ingezet als een EVM-vervanging voor reguliere ketens, Celestia biedt ondersteuning voor de beschikbaarheid van gegevens en EigenLayer biedt een gedecentraliseerd validatornetwerk, waardoor een krachtige geïntegreerde architectuur wordt gevormd van de onderliggende gegevens tot de uitvoeringslogica. De vooruitgang van parallel computing is echter geen gemakkelijke weg, en de uitdagingen zijn nog structureler en moeilijker te knagen dan de kansen. Aan de ene kant liggen de belangrijkste technische problemen in de "consistentiegarantie van gelijktijdigheid van de staat" en de "strategie voor het omgaan met transactieconflicten". In tegenstelling tot off-chain databases, kan on-chain geen willekeurige mate van terugdraaiing van transacties of intrekking van de staat tolereren, en eventuele uitvoeringsconflicten moeten van tevoren worden gemodelleerd of nauwkeurig worden gecontroleerd tijdens het evenement. Dit betekent dat de parallelle planner een sterke constructie van afhankelijkheidsgrafieken en conflictvoorspellingsmogelijkheden moet hebben, en tegelijkertijd een efficiënt optimistisch uitvoeringsfouttolerantiemechanisme moet ontwerpen, anders is het systeem vatbaar voor "gelijktijdige foutherhalingsstorm" onder hoge belasting, die niet alleen toeneemt maar ook afneemt en zelfs keteninstabiliteit veroorzaakt. Bovendien is het huidige beveiligingsmodel van de multi-threaded uitvoeringsomgeving nog niet volledig vastgesteld, zoals de precisie van het toestandsisolatiemechanisme tussen threads, het nieuwe gebruik van re-entrancy-aanvallen in asynchrone contexten en de gasexplosie van cross-threaded contractaanroepen, allemaal nieuwe problemen die moeten worden opgelost. Meer verraderlijke uitdagingen komen voort uit ecologische en psychologische aspecten. Of ontwikkelaars bereid zijn om naar het nieuwe paradigma te migreren, of ze de ontwerpmethoden van parallelle modellen onder de knie kunnen krijgen, en of ze bereid zijn om enige leesbaarheid en contractcontroleerbaarheid op te geven voor prestatievoordelen, zijn de sleutel tot de vraag of parallel computing ecologische potentiële energie kan vormen. In de afgelopen jaren hebben we gezien dat een aantal ketens met superieure prestaties maar zonder ondersteuning voor ontwikkelaars geleidelijk stil vallen, zoals NEAR, Avalanche en zelfs sommige Cosmos SDK-ketens die veel beter presteren dan de EVM, en hun ervaring herinnert ons eraan dat er zonder ontwikkelaars geen ecosysteem is; Zonder ecologie, hoe goed de voorstelling ook is, is het slechts een luchtkasteel. Daarom moeten parallelle computerprojecten niet alleen de sterkste motor zijn, maar ook het meest zachte ecologische transitiepad maken, zodat "prestaties de out-of-the-box zijn" in plaats van "prestaties de cognitieve drempel zijn". Uiteindelijk is de toekomst van parallel computing zowel een triomf voor systeemtechniek als een test voor ecodesign. Het zal ons dwingen om opnieuw te onderzoeken "wat is de essentie van de keten": is het een gedecentraliseerde afwikkelingsmachine, of een wereldwijd gedistribueerde real-time state orchestrator? Als dit laatste het geval is, zullen de mogelijkheden van staatsdoorvoer, gelijktijdigheid van transacties en contractresponsiviteit, die voorheen werden beschouwd als "technische details van de keten", uiteindelijk de primaire indicatoren worden die de waarde van de keten bepalen. Het parallelle computerparadigma dat deze overgang echt voltooit, zal in deze nieuwe cyclus ook de meest kern- en meest samengestelde infrastructuurprimitieven worden, en de impact ervan zal veel verder gaan dan een technische module, en kan een keerpunt vormen in het algemene computerparadigma van Web3. 6. Conclusie: Is parallel computing de beste weg voor Web3-native schaalvergroting? Van alle paden die de grenzen van Web3-prestaties verkennen, is parallel computing niet het gemakkelijkst te implementeren, maar het komt misschien wel het dichtst in de buurt van de essentie van blockchain. Het migreert niet off-chain, noch offert het decentralisatie op in ruil voor doorvoer, maar probeert het uitvoeringsmodel zelf te reconstrueren in de atomiciteit en het determinisme van de keten, van de transactielaag, contractlaag en virtuele machinelaag tot de wortel van het prestatieknelpunt. Deze "native to the chain" schaalmethode behoudt niet alleen het kernvertrouwensmodel van de blockchain, maar reserveert ook duurzame prestatiegrond voor complexere on-chain toepassingen in de toekomst. De moeilijkheid ligt in de structuur en de charme ligt in de structuur. Als modulaire refactoring de "architectuur van de keten" is, dan is parallel computing refactoring de "ziel van de keten". Dit is misschien geen kortere weg naar de douaneafhandeling, maar het is waarschijnlijk de enige duurzame positieve oplossing in de langetermijnevolutie van Web3. We zijn getuige van een architecturale overgang van single-core CPU's naar multi-core/threaded besturingssystemen, en het uiterlijk van Web3-native besturingssystemen kan verborgen zijn in deze in-chain parallelle experimenten.
Origineel weergeven
124,26K
1
TechFlow
TechFlow
1. Inleiding: Uitbreiding is een eeuwige propositie, en parallellisme is het ultieme slagveld Sinds de geboorte van Bitcoin heeft het blockchain-systeem altijd te maken gehad met een onvermijdelijk kernprobleem: schaalvergroting. Bitcoin verwerkt minder dan 10 transacties per seconde en Ethereum worstelt om het prestatieknelpunt van tientallen TPS (transacties per seconde) te doorbreken, wat vooral omslachtig is in de traditionele Web2-wereld, die vaak tienduizenden TPS is. Wat nog belangrijker is, dit is geen eenvoudig probleem dat kan worden opgelost door "servers toe te voegen", maar een systemische beperking die diep verankerd is in de onderliggende consensus en het structurele ontwerp van de blockchain - dat wil zeggen, de onmogelijke driehoek van de blockchain waar "decentralisatie, veiligheid en schaalbaarheid" niet kunnen worden gecombineerd. In het afgelopen decennium hebben we talloze uitbreidingspogingen zien stijgen en dalen. Van de Bitcoin-schaaloorlog tot de Ethereum-sharding-visie, van staatskanalen en plasma tot rollups en modulaire blockchains, van off-chain uitvoering in Layer 2 tot structurele refactoring van gegevensbeschikbaarheid, de hele industrie is begonnen aan een pad van schaalvergroting vol technische verbeeldingskracht. Als het meest geaccepteerde schaalparadigma heeft rollup het doel bereikt om TPS aanzienlijk te verhogen, terwijl de uitvoeringslast van de hoofdketen wordt verminderd en de veiligheid van Ethereum behouden blijft. Maar het raakt niet de echte grenzen van de onderliggende "single-chain prestaties" van de blockchain, vooral niet op uitvoeringsniveau, wat de doorvoer van het blok zelf is - wordt nog steeds beperkt door het oude verwerkingsparadigma van on-chain seriële berekening. Hierdoor is in-chain parallel computing geleidelijk het gezichtsveld van de industrie binnengekomen. Anders dan off-chain schaling en cross-chain distributie, probeert intra-chain parallellisme de uitvoeringsengine volledig te reconstrueren met behoud van de atomiciteit en geïntegreerde structuur van een enkele keten, en upgradet de blockchain van een single-threaded modus van "seriële uitvoering van één transactie door één" naar een high-concurrency computing-systeem van "multi-threading + pipeline + dependency scheduling" onder begeleiding van modern besturingssysteem en CPU-ontwerp. Een dergelijk pad kan niet alleen een honderdvoudige toename van de doorvoer bereiken, maar kan ook een belangrijke voorwaarde worden voor de explosie van slimme contracttoepassingen. In feite is single-threaded computing in het Web2-computerparadigma al lang geëlimineerd door moderne hardware-architecturen en vervangen door een eindeloze stroom optimalisatiemodellen zoals parallel programmeren, asynchrone planning, threadpools en microservices. Blockchain, als een primitiever en conservatiever computersysteem met extreem hoge eisen aan zekerheid en verifieerbaarheid, is nooit in staat geweest om volledig gebruik te maken van deze parallelle computerideeën. Dit is zowel een beperking als een kans. Nieuwe ketens zoals Solana, Sui en Aptos zijn de eersten die deze verkenning beginnen door parallellisme op architectonisch niveau te introduceren. Opkomende projecten zoals Monad en MegaETH hebben het on-chain parallellisme verder verheven tot doorbraken in diepe mechanismen zoals pipeline-uitvoering, optimistische gelijktijdigheid en asynchrone berichtgestuurde, met kenmerken die steeds dichter bij moderne besturingssystemen komen. Men kan zeggen dat parallel computing niet alleen een "methode voor prestatie-optimalisatie" is, maar ook een keerpunt in het paradigma van het blockchain-uitvoeringsmodel. Het daagt de fundamentele patronen van de uitvoering van slimme contracten uit en herdefinieert de basislogica van transactieverpakking, statustoegang, aanroeprelaties en opslaglay-out. Als rollup "het verplaatsen van transacties naar off-chain uitvoering" is, dan is on-chain parallellisme "het bouwen van supercomputing-cores on-chain", en het doel is niet alleen om de doorvoer te verbeteren, maar om echt duurzame infrastructuurondersteuning te bieden voor toekomstige Web3-native applicaties (high-frequency trading, game-engines, uitvoering van AI-modellen, on-chain social, enz.). Nadat het rollup-traject geleidelijk homogeen wordt, wordt parallellisme binnen de keten stilletjes de doorslaggevende variabele van de nieuwe cyclus van Layer 1-competitie. Prestaties zijn niet langer alleen "sneller", maar de mogelijkheid om een hele heterogene applicatiewereld te kunnen ondersteunen. Dit is niet alleen een technische race, maar ook een paradigmastrijd. De volgende generatie soevereine uitvoeringsplatforms in de Web3-wereld zal waarschijnlijk voortkomen uit dit parallelle worstelen binnen de keten. 2. Panorama van het expansieparadigma: vijf soorten routes, elk met zijn eigen accenten Capaciteitsuitbreiding, als een van de belangrijkste, meest duurzame en moeilijke onderwerpen in de evolutie van de technologie van de publieke keten, heeft het afgelopen decennium geleid tot de opkomst en evolutie van bijna alle reguliere technologiepaden. Beginnend met de strijd om de blokgrootte van Bitcoin, is deze technische wedstrijd over "hoe de keten sneller te laten lopen" uiteindelijk opgedeeld in vijf basisroutes, die elk vanuit een andere invalshoek in het knelpunt snijden, met zijn eigen technische filosofie, landingsmoeilijkheidsgraad, risicomodel en toepasbare scenario's. De eerste route is de meest eenvoudige on-chain scaling, wat betekent dat de blokgrootte wordt vergroot, de bloktijd wordt verkort of de verwerkingskracht wordt verbeterd door de gegevensstructuur en het consensusmechanisme te optimaliseren. Deze aanpak is de focus geweest van het debat over Bitcoin-schaalvergroting, wat heeft geleid tot "big block"-forks zoals BCH en BSV, en ook tot invloed heeft op de ontwerpideeën van vroege high-performance openbare ketens zoals EOS en NEO. Het voordeel van dit soort route is dat het de eenvoud van single-chain consistentie behoudt, wat gemakkelijk te begrijpen en te implementeren is, maar het is ook heel gemakkelijk om de systemische bovengrens te raken, zoals centralisatierisico, stijgende operationele kosten van knooppunten en verhoogde synchronisatiemoeilijkheid, dus het is niet langer de mainstream kernoplossing in het huidige ontwerp, maar is meer een extra collocatie van andere mechanismen geworden. Het tweede type route is off-chain schaling, die wordt vertegenwoordigd door staatskanalen en sidechains. Het basisidee van dit type pad is om het grootste deel van de transactieactiviteit off-chain te verplaatsen en alleen het eindresultaat naar de hoofdketen te schrijven, die fungeert als de uiteindelijke afwikkelingslaag. In termen van technische filosofie ligt het dicht bij de asynchrone architectuur van Web2 - probeer zware transactieverwerking aan de periferie te laten, en de hoofdketen doet minimale betrouwbare verificatie. Hoewel dit idee theoretisch oneindig schaalbaar kan zijn, beperken het vertrouwensmodel, de fondsbeveiliging en de interactiecomplexiteit van off-chain transacties de toepassing ervan. Hoewel Lightning Network bijvoorbeeld een duidelijke positionering van financiële scenario's heeft, is de schaal van het ecosysteem nooit geëxplodeerd. Ontwerpen op basis van meerdere sidechains, zoals Polygon POS, hebben echter niet alleen een hoge doorvoer, maar leggen ook de nadelen bloot van moeilijke overerving van de beveiliging van de hoofdketen. Het derde type route is de meest populaire en meest ingezette Layer 2 rollup route. Deze methode verandert de hoofdketen zelf niet direct, maar schaalt door het mechanisme van off-chain uitvoering en on-chain verificatie. Optimistic Rollup en ZK Rollup hebben hun eigen voordelen: de eerste is snel te implementeren en zeer compatibel, maar heeft de problemen van vertraging in de uitdagingsperiode en fraudebestendigheidsmechanisme; De laatste heeft een sterke beveiliging en goede gegevenscompressiemogelijkheden, maar is complex om te ontwikkelen en mist EVM-compatibiliteit. Het maakt niet uit wat voor soort rollup het is, de essentie is om de uitvoeringskracht uit te besteden, terwijl gegevens en verificatie op de hoofdketen worden gehouden, waardoor een relatief evenwicht wordt bereikt tussen decentralisatie en hoge prestaties. De snelle groei van projecten zoals Arbitrum, Optimism, zkSync en StarkNet bewijst de haalbaarheid van dit pad, maar het legt ook knelpunten op de middellange termijn bloot, zoals een te grote afhankelijkheid van gegevensbeschikbaarheid (DA), hoge kosten en gefragmenteerde ontwikkelingservaring. Het vierde type route is de modulaire blockchain-architectuur die de afgelopen jaren is ontstaan, zoals Celestia, Avail, EigenLayer, enz. Het modulaire paradigma pleit voor de volledige ontkoppeling van de kernfuncties van de blockchain - uitvoering, consensus, beschikbaarheid van gegevens en afwikkeling - door meerdere gespecialiseerde ketens om verschillende functies te voltooien en deze vervolgens te combineren tot een schaalbaar netwerk met een cross-chain protocol. Deze richting wordt sterk beïnvloed door de modulaire architectuur van het besturingssysteem en het concept van cloud computing composability, dat het voordeel heeft dat systeemcomponenten flexibel kunnen worden vervangen en de efficiëntie op specifieke gebieden zoals DA aanzienlijk kan worden verbeterd. De uitdagingen zijn echter ook heel duidelijk: de kosten van synchronisatie, verificatie en wederzijds vertrouwen tussen systemen na ontkoppeling van modules zijn extreem hoog, het ontwikkelaarsecosysteem is extreem gefragmenteerd en de vereisten voor protocolstandaarden op middellange en lange termijn en cross-chain beveiliging zijn veel hoger dan die van traditioneel ketenontwerp. In wezen bouwt dit model niet langer een "keten", maar bouwt het een "ketennetwerk", wat een ongekende drempel naar voren brengt voor het algehele begrip van de architectuur en de werking en het onderhoud. Het laatste type route, waarop de volgende analyse in dit artikel centraal staat, is het optimalisatiepad voor parallelle computing binnen de keten. In tegenstelling tot de eerste vier soorten "horizontale splitsing", die voornamelijk "horizontale splitsing" uitvoeren vanaf het structurele niveau, legt parallel computing de nadruk op "verticale upgrade", dat wil zeggen dat de gelijktijdige verwerking van atomaire transacties wordt gerealiseerd door de architectuur van de uitvoeringsengine binnen een enkele keten te veranderen. Dit vereist het herschrijven van de VM-planningslogica en het introduceren van een complete set moderne planningsmechanismen voor computersystemen, zoals analyse van transactieafhankelijkheid, voorspelling van statusconflicten, parallellismecontrole en asynchroon aanroepen. Solana is het eerste project dat het concept van parallelle VM implementeert in een systeem op ketenniveau, dat multi-core parallelle uitvoering realiseert door middel van het beoordelen van transactieconflicten op basis van het accountmodel. De nieuwe generatie projecten, zoals Monad, Sei, Fuel, MegaETH, enz., probeert verder geavanceerde ideeën te introduceren, zoals pijplijnuitvoering, optimistische gelijktijdigheid, opslagpartitionering en parallelle ontkoppeling om krachtige uitvoeringskernen te bouwen die vergelijkbaar zijn met moderne CPU's. Het belangrijkste voordeel van deze richting is dat het niet hoeft te vertrouwen op de multi-chain-architectuur om een doorbraak in de doorvoerlimiet te bereiken, en tegelijkertijd voldoende rekenflexibiliteit biedt voor de uitvoering van complexe slimme contracten, wat een belangrijke technische voorwaarde is voor toekomstige toepassingsscenario's zoals AI Agent, grootschalige ketenspellen en hoogfrequente afgeleiden. Als we naar de bovenstaande vijf soorten schaalpaden kijken, is de divisie erachter eigenlijk de systematische afweging tussen prestaties, composability, beveiliging en ontwikkelingscomplexiteit van blockchain. Rollup is sterk in consensusoutsourcing en veilige overerving, modulariteit benadrukt structurele flexibiliteit en hergebruik van componenten, off-chain schaalpogingen om het knelpunt van de hoofdketen te doorbreken, maar de vertrouwenskosten zijn hoog, en intra-chain parallellisme richt zich op de fundamentele upgrade van de uitvoeringslaag, in een poging de prestatielimiet van moderne gedistribueerde systemen te benaderen zonder de consistentie van de keten te vernietigen. Het is onmogelijk voor elk pad om alle problemen op te lossen, maar het zijn deze richtingen die samen een panorama vormen van de upgrade van het Web3-computerparadigma en ook ontwikkelaars, architecten en investeerders extreem rijke strategische opties bieden. Net zoals het besturingssysteem is verschoven van single-core naar multi-core en databases zijn geëvolueerd van sequentiële indexen naar gelijktijdige transacties, zal de uitbreiding van Web3 uiteindelijk evolueren naar een zeer parallel uitvoeringstijdperk. In dit tijdperk zijn prestaties niet langer alleen een race om de kettingsnelheid, maar een uitgebreide belichaming van de onderliggende ontwerpfilosofie, diepgaande kennis van de architectuur, samenwerking tussen software en hardware en systeemcontrole. En parallellisme binnen de keten kan het ultieme slagveld zijn van deze langdurige oorlog. 3. Parallel Computing Classification Graph: vijf paden van account naar instructie In de context van de voortdurende evolutie van blockchain-schaaltechnologie is parallel computing geleidelijk het kernpad geworden voor doorbraken op het gebied van prestaties. Anders dan de horizontale ontkoppeling van de structuurlaag, netwerklaag of gegevensbeschikbaarheidslaag, is parallelle computing een diepe mijnbouw op de uitvoeringslaag, die verband houdt met de laagste logica van de operationele efficiëntie van de blockchain, en de reactiesnelheid en verwerkingscapaciteit van een blockchain-systeem bepaalt in het licht van hoge gelijktijdigheid en complexe transacties van meerdere typen. Uitgaande van het uitvoeringsmodel en een overzicht van de ontwikkeling van deze technologielijn, kunnen we een duidelijke classificatiekaart van parallel computing opstellen, die grofweg kan worden onderverdeeld in vijf technische paden: parallellisme op accountniveau, parallellisme op objectniveau, parallellisme op transactieniveau, parallellisme op virtueel machineniveau en parallellisme op instructieniveau. Deze vijf soorten paden, van grofkorrelig tot fijnkorrelig, zijn niet alleen het continue verfijningsproces van parallelle logica, maar ook het pad van toenemende systeemcomplexiteit en planningsmoeilijkheid. Het vroegste parallellisme op accountniveau is het paradigma dat wordt vertegenwoordigd door Solana. Dit model is gebaseerd op het ontkoppelingsontwerp van rekening en staat en bepaalt of er een conflicterende relatie is door de set rekeningen die bij de transactie betrokken zijn statisch te analyseren. Als twee transacties toegang hebben tot een set accounts die elkaar niet overlappen, kunnen ze gelijktijdig worden uitgevoerd op meerdere kernen. Dit mechanisme is ideaal voor het omgaan met goed gestructureerde transacties met duidelijke inputs en outputs, vooral voor programma's met voorspelbare paden zoals DeFi. De natuurlijke veronderstelling is echter dat accounttoegang voorspelbaar is en dat staatsafhankelijkheid statisch kan worden afgeleid, waardoor het vatbaar is voor conservatieve uitvoering en verminderd parallellisme in het licht van complexe slimme contracten (zoals dynamisch gedrag zoals kettingspellen en AI-agenten). Bovendien zorgt de onderlinge afhankelijkheid tussen rekeningen er ook voor dat parallelle rendementen in bepaalde scenario's met hoge frequentie worden verzwakt. De runtime van Solana is in dit opzicht sterk geoptimaliseerd, maar de kernplanningsstrategie wordt nog steeds beperkt door de granulariteit van het account. Verdere verfijning Op basis van het rekenmodel komen we op het technische niveau van parallellisme op objectniveau. Parallellisme op objectniveau introduceert semantische abstractie van bronnen en modules, met gelijktijdige planning in meer fijnmazige eenheden van "toestandsobjecten". Aptos en Sui zijn belangrijke verkenners in deze richting, vooral de laatste, die het eigendom en de variabiliteit van bronnen tijdens het compileren definieert via het lineaire typesysteem van de Move-taal, waardoor de runtime nauwkeurig kan controleren of conflicten met toegang tot bronnen kunnen worden beheerd. Vergeleken met parallellisme op accountniveau is deze methode veelzijdiger en schaalbaarder, kan complexere lees- en schrijflogica van staten bestrijken en bedient natuurlijk zeer heterogene scenario's zoals games, sociale netwerken en AI. Parallellisme op objectniveau introduceert echter ook hogere taalbarrières en ontwikkelingscomplexiteit, en Move is geen directe vervanging voor Solidity, en de hoge kosten van ecologisch schakelen beperken de populariteit van het parallelle paradigma. Verdere parallelliteit op transactieniveau is de richting die wordt verkend door de nieuwe generatie high-performance ketens, vertegenwoordigd door Monad, Sei en Fuel. In plaats van staten of accounts te behandelen als de kleinste eenheid van parallellisme, is het pad opgebouwd rond een afhankelijkheidsgrafiek rond de hele transactie zelf. Het behandelt transacties als atomaire operationele eenheden, bouwt transactiegrafieken (Transaction DAG's) door middel van statische of dynamische analyse en vertrouwt op planners voor de uitvoering van gelijktijdige stromen. Dit ontwerp stelt het systeem in staat om mining-parallellisme te maximaliseren zonder dat het de onderliggende toestandsstructuur volledig hoeft te begrijpen. Monad is bijzonder in het oog springend en combineert moderne database-engine-technologieën zoals Optimistic Concurrency Control (OCC), parallelle pijplijnplanning en out-of-order uitvoering, waardoor ketenuitvoering dichter bij het paradigma van de "GPU-planner" komt. In de praktijk vereist dit mechanisme uiterst complexe afhankelijkheidsmanagers en conflictdetectoren, en de planner zelf kan ook een knelpunt worden, maar de potentiële doorvoercapaciteit is veel hoger dan die van het account- of objectmodel, waardoor het de meest theoretische kracht is in het huidige parallelle computerspoor. Parallellisme op virtueel-machineniveau, aan de andere kant, integreert gelijktijdige uitvoeringsmogelijkheden rechtstreeks in de onderliggende instructieplanningslogica van de VM, waarbij ernaar wordt gestreefd de inherente beperkingen van de uitvoering van EVM-sequenties volledig te doorbreken. Als een "super virtueel machine-experiment" binnen het Ethereum-ecosysteem, probeert MegaETH de EVM opnieuw te ontwerpen om multi-threaded gelijktijdige uitvoering van slimme contractcode te ondersteunen. De onderliggende laag zorgt ervoor dat elk contract onafhankelijk kan worden uitgevoerd in verschillende uitvoeringscontexten via mechanismen zoals gesegmenteerde uitvoering, statussegmentatie en asynchrone aanroep, en zorgt voor uiteindelijke consistentie met behulp van een parallelle synchronisatielaag. Het moeilijkste deel van deze aanpak is dat deze volledig compatibel moet zijn met de bestaande semantiek van EVM-gedrag en tegelijkertijd de hele uitvoeringsomgeving en het gasmechanisme moet transformeren om het Solidity-ecosysteem soepel te migreren naar een parallel framework. De uitdaging is niet alleen de diepte van de technologiestack, maar ook de acceptatie van belangrijke protocolwijzigingen in de politieke L1-structuur van Ethereum. Maar als het lukt, belooft MegaETH een "multi-core processorrevolutie" te worden in de EVM-ruimte. Het laatste type pad is parallellisme op instructieniveau, dat het meest fijnmazig is en de hoogste technische drempel heeft. Het idee is afgeleid van de out-of-order uitvoering en instructiepijplijnen van het moderne CPU-ontwerp. Dit paradigma stelt dat, aangezien elk slim contract uiteindelijk wordt gecompileerd in bytecode-instructies, het heel goed mogelijk is om elke bewerking te plannen en te analyseren en deze parallel te herschikken op dezelfde manier als een CPU een x86-instructieset uitvoert. Het Fuel-team heeft in eerste instantie een herbestelbaar uitvoeringsmodel op instructieniveau geïntroduceerd in zijn FuelVM, en op de lange termijn, zodra de blockchain-uitvoeringsengine voorspellende uitvoering en dynamische herschikking van instructieafhankelijke personen implementeert, zal het parallellisme de theoretische limiet bereiken. Deze aanpak kan zelfs het co-design van blockchain en hardware naar een geheel nieuw niveau tillen, waardoor de keten een echte "gedecentraliseerde computer" wordt in plaats van alleen een "gedistribueerd grootboek". Natuurlijk bevindt dit pad zich nog in de theoretische en experimentele fase, en de relevante planners en beveiligingsverificatiemechanismen zijn nog niet volwassen, maar het wijst op de ultieme grens van de toekomst van parallel computing. Samenvattend vormen de vijf paden van account, object, transactie, VM en instructie het ontwikkelingsspectrum van intra-chain parallel computing, van statische gegevensstructuur tot dynamisch planningsmechanisme, van voorspelling van statustoegang tot herschikking op instructieniveau, elke stap van parallelle technologie betekent een aanzienlijke toename van de systeemcomplexiteit en ontwikkelingsdrempel. Maar tegelijkertijd markeren ze ook een paradigmaverschuiving in het computermodel van blockchain, van het traditionele full-sequence consensusboek naar een krachtige, voorspelbare en verzendbare gedistribueerde uitvoeringsomgeving. Dit is niet alleen een inhaalslag met de efficiëntie van Web2 cloud computing, maar ook een diepgaande opvatting van de ultieme vorm van "blockchain-computer". De selectie van parallelle paden voor verschillende openbare ketens zal ook de toonderlimiet van hun toekomstige applicatie-ecosystemen bepalen, evenals hun kernconcurrentievermogen in scenario's zoals AI Agent, chain games en on-chain high-frequency trading. Ten vierde worden de twee hoofdsporen toegelicht: Monad vs MegaETH Van de vele paden van parallelle computerevolutie zijn de twee belangrijkste technische routes met de meeste focus, de hoogste stem en het meest complete verhaal in de huidige markt ongetwijfeld de "parallelle computerketen helemaal opnieuw opbouwen" vertegenwoordigd door Monad en de "parallelle revolutie binnen EVM" vertegenwoordigd door MegaETH. Deze twee zijn niet alleen de meest intensieve R&D-richtingen voor de huidige cryptografische primitieve ingenieurs, maar ook de meest beslissende polaire symbolen in de huidige Web3-computerprestatierace. Het verschil tussen de twee ligt niet alleen in het uitgangspunt en de stijl van de technische architectuur, maar ook in de ecologische objecten die ze dienen, de migratiekosten, de uitvoeringsfilosofie en het toekomstige strategische pad erachter. Ze vertegenwoordigen een parallelle paradigma-concurrentie tussen "reconstructionisme" en "compatibiliteitsisme", en hebben de verbeelding van de markt over de uiteindelijke vorm van high-performance ketens diepgaand beïnvloed. Monad is door en door een "computationele fundamentalist", en zijn ontwerpfilosofie is niet ontworpen om compatibel te zijn met bestaande EVM's, maar eerder om de manier waarop blockchain-uitvoeringsengines onder de motorkap draaien opnieuw te definiëren, geïnspireerd door moderne databases en krachtige multi-core systemen. Het kerntechnologiesysteem is gebaseerd op volwassen mechanismen op het gebied van databases, zoals Optimistic Concurrency Control, Transaction DAG Scheduling, Out-of-Order Execution en Pipelined Execution, met als doel de transactieverwerkingsprestaties van de keten te verhogen tot de orde van miljoenen TPS. In de Monad-architectuur zijn de uitvoering en volgorde van transacties volledig ontkoppeld en bouwt het systeem eerst een grafiek voor transactieafhankelijkheid en geeft deze vervolgens door aan de planner voor parallelle uitvoering. Alle transacties worden behandeld als atomaire eenheden van transacties, met expliciete lees-schrijfsets en snapshots van de status, en planners voeren optimistisch uit op basis van afhankelijkheidsgrafieken, waarbij ze worden teruggedraaid en opnieuw worden uitgevoerd wanneer er conflicten optreden. Dit mechanisme is uiterst complex in termen van technische implementatie, en vereist de constructie van een uitvoeringsstack die vergelijkbaar is met die van een moderne databasetransactiemanager, evenals de introductie van mechanismen zoals caching op meerdere niveaus, prefetching, parallelle validatie, enz., om de latentie van de uiteindelijke state commit te comprimeren, maar het kan theoretisch de doorvoerlimiet verleggen tot hoogten die niet worden voorgesteld door de huidige keten. Wat nog belangrijker is, Monad heeft de interoperabiliteit met de EVM niet opgegeven. Het gebruikt een tussenlaag die vergelijkbaar is met "Solidity-Compatible Intermediate Language" om ontwikkelaars te ondersteunen bij het schrijven van contracten in Solidity-syntaxis en tegelijkertijd het uitvoeren van intermediaire taaloptimalisatie en parallellisatieplanning in de uitvoeringsengine. Deze ontwerpstrategie van "oppervlaktecompatibiliteit en bodemrefactoring" behoudt niet alleen de vriendelijkheid van ecologische ontwikkelaars van Ethereum, maar bevrijdt ook het onderliggende uitvoeringspotentieel in de grootste mate, wat een typische technische strategie is van "het slikken van de EVM en het vervolgens deconstrueren". Dit betekent ook dat zodra Monad is gelanceerd, het niet alleen een soevereine keten zal worden met extreme prestaties, maar ook een ideale uitvoeringslaag voor Layer 2 rollup-netwerken, en zelfs een "pluggable high-performance core" voor andere chain execution modules op de lange termijn. Vanuit dit oogpunt is Monad niet alleen een technische route, maar ook een nieuwe logica van het ontwerp van systeemsoevereiniteit, die pleit voor de "modularisering-prestatie-herbruikbaarheid" van de uitvoeringslaag, om zo een nieuwe standaard te creëren voor inter-chain collaborative computing. In tegenstelling tot Monad's "nieuwe wereldbouwer"-houding, is MegaETH een volledig tegenovergesteld type project, dat ervoor kiest om te vertrekken vanuit de bestaande wereld van Ethereum en een aanzienlijke toename van de uitvoeringsefficiëntie te bereiken met minimale wijzigingskosten. MegaETH vernietigt de EVM-specificatie niet, maar probeert eerder de kracht van parallel computing in te bouwen in de uitvoeringsengine van de bestaande EVM, waardoor een toekomstige versie van de "multi-core EVM" ontstaat. De grondgedachte ligt in een volledige refactoring van het huidige EVM-instructie-uitvoeringsmodel met mogelijkheden zoals isolatie op threadniveau, asynchrone uitvoering op contractniveau en conflictdetectie van statustoegang, waardoor meerdere slimme contracten tegelijkertijd in hetzelfde blok kunnen worden uitgevoerd en uiteindelijk statuswijzigingen kunnen samenvoegen. Dit model vereist dat ontwikkelaars aanzienlijke prestatieverbeteringen behalen met hetzelfde contract dat op de MegaETH-keten is geïmplementeerd zonder bestaande Solidity-contracten te wijzigen, met behulp van nieuwe talen of toolchains. Dit pad van "conservatieve revolutie" is buitengewoon aantrekkelijk, vooral voor het Ethereum L2-ecosysteem, omdat het een ideaal pad biedt naar pijnloze prestatie-upgrades zonder de noodzaak om syntaxis te migreren. De belangrijkste doorbraak van MegaETH ligt in het VM multi-threaded planningsmechanisme. Traditionele EVM's gebruiken een gestapeld, single-threaded uitvoeringsmodel, waarbij elke instructie lineair wordt uitgevoerd en statusupdates synchroon moeten plaatsvinden. MegaETH doorbreekt dit patroon en introduceert een asynchrone aanroepstack en uitvoeringscontextisolatiemechanisme, om gelijktijdige uitvoering van "gelijktijdige EVM-contexten" te bereiken. Elk contract kan zijn eigen logica aanroepen in een afzonderlijke thread, en alle threads zullen de status uniform detecteren en convergeren via de parallelle commitlaag wanneer de status uiteindelijk wordt ingediend. Dit mechanisme lijkt sterk op het JavaScript-multithreading-model van moderne browsers (Web Workers + Shared Memory + Lock-Free Data), dat het determinisme van het gedrag van de hoofdthread behoudt en een krachtig planningsmechanisme introduceert dat asynchroon op de achtergrond is. In de praktijk is dit ontwerp ook uiterst vriendelijk voor blokbouwers en zoekers, en kan het Mempool-sorteer- en MEV-opnamepaden optimaliseren volgens parallelle strategieën, waardoor een gesloten lus van economische voordelen wordt gevormd op de uitvoeringslaag. Wat nog belangrijker is, MegaETH kiest ervoor om diep verbonden te zijn met het Ethereum-ecosysteem, en de belangrijkste landingsplaats in de toekomst zal waarschijnlijk een EVM L2 Rollup-netwerk zijn, zoals Optimism, Base of Arbitrum Orbit-keten. Eenmaal op grote schaal toegepast, kan het bijna 100 keer prestatieverbetering bereiken bovenop de bestaande Ethereum-technologiestack zonder de contractsemantiek, het staatsmodel, de gaslogica, aanroepmethoden, enz. te veranderen, wat het een aantrekkelijke technologie-upgraderichting maakt voor EVM-conservatieven. Het MegaETH-paradigma is: zolang je nog steeds dingen op Ethereum doet, laat ik je computerprestaties omhoogschieten. Vanuit het perspectief van realisme en techniek is het gemakkelijker te implementeren dan Monad, en het is meer in lijn met het iteratieve pad van reguliere DeFi- en NFT-projecten, waardoor het op korte termijn een kandidaat is voor ecologische ondersteuning. In zekere zin zijn de twee routes van Monad en MegaETH niet alleen twee implementaties van parallelle technologiepaden, maar ook een klassieke confrontatie tussen "refactoring" en "compatibiliteit" in de blockchain-ontwikkelingsroute: de eerste streeft naar een paradigmadoorbraak en reconstrueert alle logica van virtuele machines tot onderliggend statusbeheer om ultieme prestaties en architecturale plasticiteit te bereiken; Deze laatste streeft naar stapsgewijze optimalisatie, waarbij traditionele systemen tot het uiterste worden gedreven met inachtneming van de bestaande ecologische beperkingen, waardoor de migratiekosten worden geminimaliseerd. Er zijn geen absolute voor- of nadelen tussen de twee, maar ze dienen verschillende ontwikkelaarsgroepen en ecosysteemvisies. Monad is meer geschikt voor het bouwen van nieuwe systemen vanaf nul, chain games die extreme doorvoer nastreven, AI-agents en modulaire uitvoeringsketens. MegaETH daarentegen is meer geschikt voor L2-projecten, DeFi-projecten en infrastructuurprotocollen die prestatie-upgrades willen bereiken met minimale ontwikkelingswijzigingen. Ze zijn als hogesnelheidstreinen op een nieuw spoor, opnieuw gedefinieerd van het spoor, het elektriciteitsnet naar de carrosserie, alleen maar om een ongekende snelheid en ervaring te bereiken; Een ander voorbeeld is het installeren van turbines op bestaande snelwegen, het verbeteren van de rijstrookplanning en de motorstructuur, waardoor voertuigen sneller kunnen rijden zonder het vertrouwde wegennet te verlaten. De twee kunnen op dezelfde manier eindigen: in de volgende fase van modulaire blockchain-architecturen zou Monad een "execution-as-a-service"-module voor Rollups kunnen worden, en MegaETH zou een plug-in voor prestatieversnelling kunnen worden voor mainstream L2's. De twee kunnen uiteindelijk samenkomen om de twee vleugels te vormen van de krachtige gedistribueerde uitvoeringsengine in de toekomstige Web3-wereld. 5. Toekomstige kansen en uitdagingen van parallel computing Naarmate parallel computing overgaat van op papier gebaseerd ontwerp naar on-chain implementatie, wordt het potentieel dat het ontsluit concreter en meetbaarder. Aan de ene kant hebben we gezien dat nieuwe ontwikkelingsparadigma's en bedrijfsmodellen zijn begonnen met het herdefiniëren van "on-chain prestaties": complexere chain game-logica, realistischere levenscyclus van AI-agenten, meer real-time protocol voor gegevensuitwisseling, meer meeslepende interactieve ervaring en zelfs on-chain collaboratief Super App-besturingssysteem veranderen allemaal van "kunnen we het doen" naar "hoe goed we het kunnen". Aan de andere kant is wat de overgang naar parallel computing echt drijft niet alleen de lineaire verbetering van de systeemprestaties, maar ook de structurele verandering van de cognitieve grenzen van ontwikkelaars en ecologische migratiekosten. Net zoals de introductie van het Turing-complete contractmechanisme door Ethereum leidde tot de multidimensionale explosie van DeFi, NFT en DAO, leidt de "asynchrone reconstructie tussen staat en instructie" tot stand gebracht door parallel computing ook tot het ontstaan van een nieuw on-chain wereldmodel, dat niet alleen een revolutie is in uitvoeringsefficiëntie, maar ook een broeinest van splijtingsinnovatie in productstructuur. Allereerst is vanuit het perspectief van kansen het meest directe voordeel het "opheffen van het toepassingsplafond". De meeste van de huidige DeFi-, gaming- en sociale toepassingen worden beperkt door knelpunten in de staat, gaskosten en latentie, en kunnen niet echt op grote schaal hoogfrequente interacties in de keten vervoeren. Als we kettinggames als voorbeeld nemen, bestaat GameFi met echte bewegingsfeedback, hoogfrequente gedragssynchronisatie en real-time gevechtslogica bijna niet, omdat de lineaire uitvoering van traditionele EVM de uitzendbevestiging van tientallen statusveranderingen per seconde niet kan ondersteunen. Met de ondersteuning van parallel computing, door middel van mechanismen zoals transactie-DAG's en asynchrone contexten op contractniveau, kunnen ketens met een hoge gelijktijdigheid worden geconstrueerd en kunnen deterministische uitvoeringsresultaten worden gegarandeerd door middel van snapshot-consistentie, om een structurele doorbraak in de "on-chain game engine" te bereiken. Evenzo zal de inzet en werking van AI-agents aanzienlijk worden verbeterd door parallel computing. In het verleden hadden we de neiging om AI-agenten off-chain uit te voeren en hun gedragsresultaten alleen te uploaden naar on-chain-contracten, maar in de toekomst kan on-chain asynchrone samenwerking en statusdeling tussen meerdere AI-entiteiten ondersteunen door middel van parallelle transactieplanning, om zo de real-time autonome logica van Agent on-chain echt te realiseren. Parallel computing zal de infrastructuur zijn voor dit "gedragsgestuurde contract", waardoor Web3 van een "transactie als een asset" naar een nieuwe wereld van "interactie als agent" wordt gedreven. Ten tweede zijn de toolchain voor ontwikkelaars en de abstractielaag van virtuele machines ook structureel hervormd als gevolg van parallellisatie. Het traditionele Solidity-ontwikkelingsparadigma is gebaseerd op een serieel denkmodel, waarbij ontwikkelaars gewend zijn om logica te ontwerpen als een single-threaded toestandsverandering, maar in parallelle computerarchitecturen zullen ontwikkelaars gedwongen worden na te denken over lees-/schrijfsetconflicten, statusisolatiebeleid, transactieatomiciteit en zelfs architectuurpatronen introduceren op basis van berichtwachtrijen of statuspijplijnen. Deze sprong in cognitieve structuur heeft ook geleid tot de snelle opkomst van een nieuwe generatie gereedschapsketens. Parallelle raamwerken voor slimme contracten die transactionele afhankelijkheidsdeclaraties ondersteunen, IR-gebaseerde optimalisatiecompilers en gelijktijdige debuggers die de simulatie van snapshots van transacties ondersteunen, zullen bijvoorbeeld allemaal broeinesten worden voor infrastructuurexplosies in de nieuwe cyclus. Tegelijkertijd heeft de voortdurende evolutie van modulaire blockchains ook een uitstekend landingspad voor parallel computing opgeleverd: Monad kan in L2 Rollup worden ingevoegd als een uitvoeringsmodule, MegaETH kan worden ingezet als een EVM-vervanging voor reguliere ketens, Celestia biedt ondersteuning voor de beschikbaarheid van gegevens en EigenLayer biedt een gedecentraliseerd validatornetwerk, waardoor een krachtige geïntegreerde architectuur wordt gevormd van de onderliggende gegevens tot de uitvoeringslogica. De vooruitgang van parallel computing is echter geen gemakkelijke weg, en de uitdagingen zijn nog structureler en moeilijker te knagen dan de kansen. Aan de ene kant liggen de belangrijkste technische problemen in de "consistentiegarantie van gelijktijdigheid van de staat" en de "strategie voor het omgaan met transactieconflicten". In tegenstelling tot off-chain databases, kan on-chain geen willekeurige mate van terugdraaiing van transacties of intrekking van de staat tolereren, en eventuele uitvoeringsconflicten moeten van tevoren worden gemodelleerd of nauwkeurig worden gecontroleerd tijdens het evenement. Dit betekent dat de parallelle planner een sterke constructie van afhankelijkheidsgrafieken en conflictvoorspellingsmogelijkheden moet hebben, en tegelijkertijd een efficiënt optimistisch uitvoeringsfouttolerantiemechanisme moet ontwerpen, anders is het systeem vatbaar voor "gelijktijdige foutherhalingsstorm" onder hoge belasting, die niet alleen toeneemt maar ook afneemt en zelfs keteninstabiliteit veroorzaakt. Bovendien is het huidige beveiligingsmodel van de multi-threaded uitvoeringsomgeving nog niet volledig vastgesteld, zoals de precisie van het toestandsisolatiemechanisme tussen threads, het nieuwe gebruik van re-entrancy-aanvallen in asynchrone contexten en de gasexplosie van cross-threaded contractaanroepen, allemaal nieuwe problemen die moeten worden opgelost. Meer verraderlijke uitdagingen komen voort uit ecologische en psychologische aspecten. Of ontwikkelaars bereid zijn om naar het nieuwe paradigma te migreren, of ze de ontwerpmethoden van parallelle modellen onder de knie kunnen krijgen, en of ze bereid zijn om enige leesbaarheid en contractcontroleerbaarheid op te geven voor prestatievoordelen, zijn de sleutel tot de vraag of parallel computing ecologische potentiële energie kan vormen. In de afgelopen jaren hebben we gezien dat een aantal ketens met superieure prestaties maar zonder ondersteuning voor ontwikkelaars geleidelijk stil vallen, zoals NEAR, Avalanche en zelfs sommige Cosmos SDK-ketens met veel betere prestaties dan EVM, en hun ervaring herinnert ons eraan dat er zonder ontwikkelaars geen ecosysteem is; Zonder ecologie, hoe goed de voorstelling ook is, is het slechts een luchtkasteel. Daarom moeten parallelle computerprojecten niet alleen de sterkste motor zijn, maar ook het meest zachte ecologische transitiepad maken, zodat "prestaties de out-of-the-box zijn" in plaats van "prestaties de cognitieve drempel zijn". Uiteindelijk is de toekomst van parallel computing zowel een triomf voor systeemtechniek als een test voor ecodesign. Het zal ons dwingen om opnieuw te onderzoeken "wat is de essentie van de keten": is het een gedecentraliseerde afwikkelingsmachine, of een wereldwijd gedistribueerde real-time state orchestrator? Als dit laatste het geval is, zullen de mogelijkheden van staatsdoorvoer, gelijktijdigheid van transacties en contractresponsiviteit, die voorheen werden beschouwd als "technische details van de keten", uiteindelijk de primaire indicatoren worden die de waarde van de keten bepalen. Het parallelle computerparadigma dat deze overgang echt voltooit, zal in deze nieuwe cyclus ook de meest kern- en meest samengestelde infrastructuurprimitieven worden, en de impact ervan zal veel verder gaan dan een technische module, en kan een keerpunt vormen in het algemene computerparadigma van Web3. 6. Conclusie: Is parallel computing de beste weg voor native uitbreiding van Web3? Van alle paden die de grenzen van Web3-prestaties verkennen, is parallel computing niet het gemakkelijkst te implementeren, maar het komt misschien wel het dichtst in de buurt van de essentie van blockchain. Het migreert niet off-chain, noch offert het decentralisatie op in ruil voor doorvoer, maar probeert het uitvoeringsmodel zelf te reconstrueren in de atomiciteit en het determinisme van de keten, van de transactielaag, contractlaag en virtuele machinelaag tot de wortel van het prestatieknelpunt. Deze "native to the chain" schaalmethode behoudt niet alleen het kernvertrouwensmodel van de blockchain, maar reserveert ook duurzame prestatiegrond voor complexere on-chain toepassingen in de toekomst. De moeilijkheid ligt in de structuur en de charme ligt in de structuur. Als modulaire refactoring de "architectuur van de keten" is, dan is parallel computing refactoring de "ziel van de keten". Dit is misschien geen kortere weg naar de douaneafhandeling, maar het is waarschijnlijk de enige duurzame positieve oplossing in de langetermijnevolutie van Web3. We zijn getuige van een architecturale overgang van single-core CPU's naar multi-core/threaded besturingssystemen, en het uiterlijk van Web3-native besturingssystemen kan verborgen zijn in deze in-chain parallelle experimenten.
Origineel weergeven
122,19K
1
Jasmine
Jasmine heeft opnieuw gepost
Ourbit
Ourbit
Ourbit heeft deposito's geopend voor deze activa: $LENS [@getlensnow] $ROBOT [@RoboStack_io] $NEO [@Neo_Blockchain] De handel in deze spotnoteringen is hier live:
Origineel weergeven
21,66K
94

NEO-calculator

USDUSD
NEONEO

NEO prijsprestatie in USD

De huidige koers van NEO is $5,9040. Gedurende de afgelopen 24 uur, NEO is met afgenomen tegen -0,54%. Het heeft momenteel een circulerend aanbod van 70.530.000 NEO en een maximaal aanbod van 100.000.000 NEO, waardoor het een volledig verwaterde marktkapitalisatie van $415,70M heeft. Op dit moment bezit de NEO-munt, de 0 positie in de marktkapitalisatie positie. De NEO/USD-prijs wordt in real time geüpdatet.
Vandaag
-$0,03200
-0,54%
7 dagen
-$0,40300
-6,39%
30 dagen
-$0,31000
-4,99%
3 maanden
-$2,8210
-32,34%

Over NEO (NEO)

3.8/5
CyberScope
4.4
16-04-2025
TokenInsight
3.1
29-04-2023
De beoordeling is een algehele waardering die OKX verzamelt vanaf verschillende bronnen en is alleen bestemd voor intern gebruik. OKX geeft geen garantie wat betreft de kwaliteit of de nauwkeurigheid van een beoordeling. Deze is niet bedoeld als (i) beleggingsadvies of -aanbeveling, (ii) een aanbod voor of verzoek om digitale activa te kopen, te verkopen of aan te houden, of (iii) advies op het gebied van financiën, boekhouding of belastingen. Digitale activa, waaronder stablecoins en NFT's, brengen aanzienlijke risico’s met zich mee. Ze kunnen sterk fluctueren in waarde of zelfs waardeloos worden. De prijzen en bewegingen van digitale activa zijn onvoorspelbaar en kunnen zomaar veranderen. Je digitale activa zijn niet verzekerd tegen mogelijke verliezen. In het verleden behaalde resultaten bieden geen garantie voor de toekomst. OKX garandeert geen terugbetaling van de hoofdsom of rente. OKX geeft geen aanbevelingen voor investeringen of activa. Voordat je besluit om digitale activa te verhandelen of aan te houden, moet je zorgvuldig analyseren of jouw financiële situatie dit toelaat. Raadpleeg bij vragen hierover altijd een juridisch, fiscaal of beleggingsadviseur.
Verder lezen
  • Officiële website
  • Github
  • Blokverkenner
  • Informatie over websites van derden
    Informatie over websites van derden
    Door de website van derden ('TPW') te gebruiken, aanvaard je dat elk gebruik van de TPW onderworpen is aan en geregeld wordt door de voorwaarden van de TPW. Tenzij uitdrukkelijk schriftelijk vermeld, zijn OKX en haar partners ('OKX') op geen enkele wijze verbonden met de eigenaar of exploitant van de TPW. Je stemt ermee in dat OKX niet verantwoordelijk of aansprakelijk is voor verlies, schade en andere gevolgen die voortvloeien uit je gebruik van de TPW. Houd er rekening mee dat het gebruik van een TPW kan leiden tot verlies of waardevermindering van je bezittingen.
NEO richt zich op het gebruik van blockchaintechnologie en digitale identiteit om bezittingen te digitaliseren, het gebruik van smart contracts om digitale bezittingen zelf te beheren, om een "slimme economie" te realiseren met een gedistribueerd netwerk.
Verder lezen
Minder weergeven
Handel in populaire crypto's en derivaten met lage vergoedingen
Handel in populaire crypto's en derivaten met lage vergoedingen
Aan de slag

Socials

Posts
Aantal berichten waarin het token wordt genoemd in de afgelopen 24u. Hiermee kan het niveau van interesse rond dit token worden gemeten.
Bijdragers
Aantal personen dat gedurende de afgelopen 24u informatie heeft geplaatst over een token. Een groter aantal bijdragers kan een verbeterde prestatie van de token aanduiden.
Interacties
Totaal van sociaal gedreven online betrokkenheid in de afgelopen 24u, zoals vind-ik-leuks, opmerkingen en reposts. Een hoge betrokkenheid kan een indicatie zijn van veel interesse in een token.
Sentiment
Procentuele score die het gevoel van de geplaatste berichten in de afgelopen 24u weergeeft. Een hoge percentagescore heeft te maken met positief sentiment en kan duiden op verbeterde marktprestaties.
Volumepositite
Volume verwijst naar het volume van de geplaatste berichten in de afgelopen 24u. Een hogere positie in volume weerspiegelt de voorkeurspositie van een token ten opzichte van andere tokens.
In de afgelopen 24 uur zijn er 16K nieuwe berichten over NEO geplaatst, aangestuurd door 9,4K bijdragers, en de totale online betrokkenheid bereikte 46 mln. sociale interacties. De sentimentscore voor NEO staat momenteel op 75%. Vergeleken met alle cryptocurrency's staat het volume voor NEO momenteel op 0. Houd veranderingen in sociale statistieken in de gaten, want deze kunnen een belangrijke indicator zijn van de invloed en het bereik van NEO.
Mogelijk gemaakt door LunarCrush
Posts
15.667
Bijdragers
9.413
Interacties
46.193.594
Sentiment
75%
Volumepositite
#0

X

Posts
3.279
Interacties
20.101.073
Sentiment
79%

NEO Veelgestelde vragen

Hoe veel is één NEO vandaag waard?
Momenteel is één NEO de waarde van $5,9040. Voor antwoorden en inzicht in de prijsactie van NEO ben je op de juiste plek. Ontdek de nieuwste NEO grafieken en handel verantwoord met OKX.
Wat is cryptocurrency?
Cryptocurrency's, zoals NEO, zijn digitale bezittingen die op een openbaar grootboek genaamd blockchains werken. Voor meer informatie over munten en tokens die op OKX worden aangeboden en hun verschillende kenmerken, inclusief live-prijzen en grafieken in real time.
Wanneer zijn cryptocurrency's uitgevonden?
Dankzij de financiële crisis van 2008 nam de belangstelling voor gedecentraliseerde financiën toe. Bitcoin bood een nieuwe oplossing door een veilige digitale bezitting te zijn op een gedecentraliseerd netwerk. Sindsdien zijn er ook veel andere tokens zoals NEO aangemaakt.
Zal de prijs van NEO vandaag stijgen?
Bekijk onze NEO Prijsvoorspellingspagina om toekomstige prijzen te voorspellen en je prijsdoelen te bepalen.

ESG-vermelding

ESG-regelgeving (Environmental, Social, and Governance) voor crypto-bezit is gericht op het aanpakken van hun milieu-impact (bijv. energie-intensieve mining), het bevorderen van transparantie en het waarborgen van ethische bestuurspraktijken om de crypto-industrie op één lijn te brengen met bredere duurzaamheids- en maatschappelijke doelen. Deze regels stimuleren de naleving van normen die risico's beperken en het vertrouwen in digitale bezitting bevorderen.
Details bezittingen
Naam
OKcoin Europe LTD
Identificatiecode relevante juridische entiteit
54930069NLWEIGLHXU42
Naam van het crypto-bezit
NEO
Consensusmechanisme
NEO is present on the following networks: Ethereum, Neo. The crypto-asset's Proof-of-Stake (PoS) consensus mechanism, introduced with The Merge in 2022, replaces mining with validator staking. Validators must stake at least 32 ETH every block a validator is randomly chosen to propose the next block. Once proposed the other validators verify the blocks integrity. The network operates on a slot and epoch system, where a new block is proposed every 12 seconds, and finalization occurs after two epochs (~12.8 minutes) using Casper-FFG. The Beacon Chain coordinates validators, while the fork-choice rule (LMD-GHOST) ensures the chain follows the heaviest accumulated validator votes. Validators earn rewards for proposing and verifying blocks, but face slashing for malicious behavior or inactivity. PoS aims to improve energy efficiency, security, and scalability, with future upgrades like Proto-Danksharding enhancing transaction efficiency. The NEO blockchain uses a Delegated Byzantine Fault Tolerance (dBFT) consensus mechanism to validate transactions, relying on an elected committee and consensus nodes to maintain security and efficiency. Core Components of dBFT: 1. Candidates: a. Individuals or organizations can register as candidates for committee membership, a process that requires on-chain registration. b. NEO holders vote for candidates based on their NEO holdings, with votes calculated every 21 blocks. c. Elections are valid if more than 20% of all NEO tokens participate in voting. The candidates with the most votes are selected as committee members and consensus nodes. 2. Committee: a. The top 21 candidates with the most votes are elected as committee members. This committee is responsible for governing the network, including electing node roles like Oracle nodes, StateRoot consensus nodes, NeoFS Inner Ring nodes, and consensus nodes. b. The seven members with the highest votes also serve as consensus nodes, responsible for proposing and generating new blocks. Consensus nodes are rotated every 21 blocks to maintain security and decentralization. c. Committee proposals require more than 50% agreement for approval, allowing the committee to update blockchain parameters as needed.
Stimuleringsmechanismen en toepasselijke vergoedingen
NEO is present on the following networks: Ethereum, Neo. The crypto-asset's PoS system secures transactions through validator incentives and economic penalties. Validators stake at least 32 ETH and earn rewards for proposing blocks, attesting to valid ones, and participating in sync committees. Rewards are paid in newly issued ETH and transaction fees. Under EIP-1559, transaction fees consist of a base fee, which is burned to reduce supply, and an optional priority fee (tip) paid to validators. Validators face slashing if they act maliciously and incur penalties for inactivity. This system aims to increase security by aligning incentives while making the crypto-asset's fee structure more predictable and deflationary during high network activity. The NEO network uses a dual-token model featuring NEO and GAS tokens. NEO serves governance and voting functions, while GAS is used for network operations. Incentive Mechanisms: - NEO Token: Supply and Governance: NEO has a maximum supply of 100 million tokens, is indivisible, and is used for governance activities, including electing consensus nodes and adjusting consensus parameters. Claiming GAS: NEO holders earn GAS based on their holdings, which allows them to participate in the ecosystem without directly purchasing GAS. - GAS Token: Utility and Fees: GAS is the network’s utility token, with a minimum unit of 0.00000001 (1 Datoshi). GAS is required for network fees, including transfers, asset registration, and smart contract execution. GAS transactions are precise, supporting high granularity for fees. Supply: Unlike NEO, GAS has no maximum supply, and transaction fees paid in GAS are burned, which contributes to supply control. - GAS Distribution: Block Rewards: Each block generates 5 GAS, distributed to NEO holders, voters, and the Neo Committee: NEO Holders receive 10%, distributed based on the holding period. Committee & Consensus Nodes receive 10%, with rewards recalculated every 21 blocks based on updated voting. Voters receive 80%, incentivizing voting participation. Rewards are calculated and distributed every epoch (21 blocks), with voters for consensus nodes receiving a higher reward ratio than those voting for non-consensus committee members.
Begin van de periode waarop de informatieverschaffing betrekking heeft
2024-05-31
Einde van de periode waarop de informatie betrekking heeft
2025-05-31
Energierapport
Energieverbruik
65700.00000 (kWh/a)
Energieverbruiksbronnen en -methodologieën
The energy consumption of this asset is aggregated across multiple components: To determine the energy consumption of a token, the energy consumption of the network(s) ethereum, neo is calculated first. For the energy consumption of the token, a fraction of the energy consumption of the network is attributed to the token, which is determined based on the activity of the crypto-asset within the network. When calculating the energy consumption, the Functionally Fungible Group Digital Token Identifier (FFG DTI) is used - if available - to determine all implementations of the asset in scope. The mappings are updated regularly, based on data of the Digital Token Identifier Foundation.

NEO-calculator

USDUSD
NEONEO
Begin je crypto-avontuur
Begin je crypto-avontuur
Sneller, beter en sterker dan de gemiddelde crypto-exchange.