BCH
BCH

Prezzo di Bitcoin Cash

$405,60
-$11,8000
(-2,83%)
Variazione di prezzo nelle ultime 24 ore
USDUSD
Come ti senti oggi circa i BCH?
Condividi i tuoi sentimenti qui mettendo un pollice in su se ti senti rialzista per quanto riguarda la criptovaluta o un pollice in giù se ti senti ribassista.
Vota per vedere i risultati
Scopri il mondo cripto
Scopri il mondo cripto
L'exchange di criptovalute migliore, più veloce e più forte di qualunque altro.

Rischio relativo all'emittente di BCH

Prendi ogni precauzione e tieni presente che questo asset di criptovaluta è classificato come asset di criptovaluta ad alto rischio. Questo asset di criptovaluta non ha un emittente chiaramente identificabile e/o un team di progetto ben definito, cosa che ne aumenta o può aumentarne la suscettibilità a notevoli rischi di mercato, tra cui l'estrema volatilità, la bassa liquidità e/o il potenziale per abusi di mercato o manipolazione del prezzo. Non vi è alcuna garanzia del valore, della stabilità o della possibilità di vendere questo asset di criptovaluta ai prezzi preferiti o desiderati.

Disclaimer

I contenuti social forniti in questa pagina ("Contenuti"), inclusi, a titolo esemplificativo ma non esaustivo, tweet e statistiche forniti da LunarCrush, provengono da terze parti e vengono forniti "così come sono" esclusivamente a scopo informativo. OKX non garantisce la qualità o la precisione dei Contenuti e i Contenuti non rappresentano il punto di vista di OKX. Non è destinato a fornire (i) consigli o raccomandazioni in materia di investimenti; (ii) un'offerta o una sollecitazione all'acquisto, alla vendita o al possesso di asset digitali; oppure (iii) consigli di natura finanziaria, contabile, legale o fiscale. Gli asset digitali, tra cui stablecoin e NFT, comportano un elevato livello di rischio, sono soggetti a fluttuazioni estreme. Il prezzo e le prestazioni degli asset digitali non sono garantiti e potrebbero variare senza preavviso.

OKX non fornisce raccomandazioni su investimenti o asset. Devi considerare attentamente se il trading o l'holding di asset digitali è adatto a te alla luce della tua condizione finanziaria. Consulta un professionista legale/fiscale/finanziario per domande sulla tua specifica situazione. Per ulteriori dettagli, fai riferimento ai nostri Termini di utilizzo e all'Avviso di rischio. Utilizzando il sito web di terze parti ("TPW"), accetti che qualsiasi utilizzo del TPW sarà soggetto alle condizioni del TPW e disciplinato dalle stesse. Se non espressamente dichiarato per iscritto, OKX e i suoi affiliati ("OKX") non sono associati in alcun modo al proprietario o all'operatore del TPW. Accetti che OKX non è responsabile di eventuali perdite, danni e qualsiasi altra conseguenza derivanti dall'utilizzo del TPW. Tieni presente che l'uso di un TPW potrebbe comportare una perdita o una diminuzione dei tuoi asset. Il prodotto potrebbe non essere disponibile in tutte le giurisdizioni.

Informazioni sul mercato di Bitcoin Cash

Capitalizzazione di mercato
La capitalizzazione di mercato viene calcolata moltiplicando l'offerta circolante di una criptovaluta per il suo ultimo prezzo.
Capitalizzazione di mercato = Offerta circolante x Ultimo prezzo
Offerta circolante
L'importo totale di una criptovaluta disponibile pubblicamente sul mercato.
Grado di capitalizzazione di mercato
Il ranking di una criptovaluta in termini di valore della capitalizzazione di mercato.
Massimo storico
Il prezzo massimo di una criptovaluta raggiunto nella sua cronologia di trading.
Minimo storico
Il prezzo minimo di una criptovaluta raggiunto nella sua cronologia di trading.
Capitalizzazione di mercato
$8,06B
Offerta circolante
19.877.684 BCH
94,65% di
21.000.000 BCH
Grado di capitalizzazione di mercato
16
Audit
CertiK
Ultimo audit: --
Massimo ultime 24 ore
$418,00
Minimo ultime 24 ore
$397,20
Massimo storico
$1.640,17
-75,28% (-$1.234,57)
Ultimo aggiornamento: 12 mag 2021, (UTC+8)
Minimo storico
$74,1000
+447,36% (+$331,50)
Ultimo aggiornamento: 15 dic 2018, (UTC+8)

Feed di Bitcoin Cash

Il seguente contenuto proviene da .
PANews
PANews
1. Introduzione: L'espansione è una proposta eterna e il parallelismo è il campo di battaglia definitivo Sin dalla nascita di Bitcoin, il sistema blockchain ha sempre affrontato un problema fondamentale ineludibile: la scalabilità. Bitcoin elabora meno di 10 transazioni al secondo, ed Ethereum fatica a superare il collo di bottiglia delle prestazioni di decine di TPS (transazioni al secondo), che è particolarmente ingombrante nel mondo tradizionale del Web2, che spesso è di decine di migliaia di TPS. Ancora più importante, questo non è un semplice problema che può essere risolto "aggiungendo server", ma una limitazione sistemica profondamente radicata nel consenso sottostante e nel design strutturale della blockchain, ovvero il triangolo impossibile della blockchain in cui "decentralizzazione, sicurezza e scalabilità" non possono essere combinate. Nell'ultimo decennio, abbiamo assistito a innumerevoli tentativi di espansione in ascesa e in diminuzione. Dalla guerra di scalabilità di Bitcoin alla visione dello sharding di Ethereum, dai canali di stato e plasma ai rollup e alle blockchain modulari, dall'esecuzione off-chain in Layer 2 al refactoring strutturale della disponibilità dei dati, l'intero settore ha intrapreso un percorso di scalabilità pieno di immaginazione ingegneristica. Come paradigma di scalabilità più ampiamente accettato, il rollup ha raggiunto l'obiettivo di aumentare significativamente il TPS, riducendo al contempo l'onere di esecuzione della catena principale e preservando la sicurezza di Ethereum. Ma non tocca i limiti reali delle "prestazioni single-chain" sottostanti alla blockchain, soprattutto a livello di esecuzione, che è il throughput del blocco stesso – è ancora limitato dall'antico paradigma di elaborazione del calcolo seriale on-chain. Per questo motivo, il calcolo parallelo in-chain è entrato gradualmente nel campo visivo del settore. A differenza della scalabilità off-chain e della distribuzione cross-chain, il parallelismo intra-chain tenta di ricostruire completamente il motore di esecuzione mantenendo l'atomicità a catena singola e la struttura integrata, e aggiorna la blockchain da una modalità a thread singolo di "esecuzione seriale di una transazione per una" a un sistema di calcolo ad alta concorrenza di "multi-threading + pipeline + pianificazione delle dipendenze" sotto la guida del moderno sistema operativo e della progettazione della CPU. Un tale percorso potrebbe non solo ottenere un aumento di cento volte del throughput, ma potrebbe anche diventare un prerequisito chiave per l'esplosione delle applicazioni di smart contract. Infatti, nel paradigma del Web2 computing, il single-threaded computing è stato da tempo eliminato dalle moderne architetture hardware e sostituito da un flusso infinito di modelli di ottimizzazione come la programmazione parallela, la pianificazione asincrona, i pool di thread e i microservizi. La blockchain, in quanto sistema di calcolo più primitivo e conservativo con requisiti estremamente elevati di certezza e verificabilità, non è mai stata in grado di sfruttare appieno queste idee di calcolo parallelo. Questo è sia un limite che un'opportunità. Nuove catene come Solana, Sui e Aptos sono le prime ad avviare questa esplorazione introducendo il parallelismo a livello architettonico. Progetti emergenti come Monad e MegaETH hanno ulteriormente elevato il parallelismo on-chain a scoperte in meccanismi profondi come l'esecuzione delle pipeline, la concorrenza ottimistica e l'asincrono message-driven, mostrando caratteristiche che si stanno avvicinando sempre di più ai moderni sistemi operativi. Si può dire che il calcolo parallelo non è solo un "metodo di ottimizzazione delle prestazioni", ma anche un punto di svolta nel paradigma del modello di esecuzione blockchain. Sfida i modelli fondamentali dell'esecuzione degli smart contract e ridefinisce la logica di base del packaging delle transazioni, dell'accesso allo stato, delle relazioni di chiamata e del layout di archiviazione. Se il rollup consiste nel "spostare le transazioni nell'esecuzione off-chain", il parallelismo on-chain consiste nel "costruire core di supercalcolo on-chain" e il suo obiettivo non è semplicemente migliorare il throughput, ma fornire un supporto infrastrutturale veramente sostenibile per le future applicazioni native del Web3 (trading ad alta frequenza, motori di gioco, esecuzione di modelli AI, social on-chain, ecc.). Dopo che il percorso di rollup tende gradualmente ad essere omogeneo, il parallelismo intra-chain sta silenziosamente diventando la variabile decisiva del nuovo ciclo di competizione Layer 1. Le prestazioni non sono più solo "più veloci", ma la possibilità di poter supportare un intero mondo applicativo eterogeneo. Questa non è solo una gara tecnica, ma anche una battaglia di paradigma. È probabile che la prossima generazione di piattaforme di esecuzione sovrana nel mondo Web3 emerga da questo wrestling parallelo intra-chain. 2. Panorama del paradigma di espansione: cinque tipi di percorsi, ognuno con la propria enfasi L'espansione della capacità, come uno dei temi più importanti, sostenuti e difficili nell'evoluzione della tecnologia della catena pubblica, ha dato vita all'emergere e all'evoluzione di quasi tutti i percorsi tecnologici mainstream nell'ultimo decennio. Partendo dalla battaglia sulla dimensione del blocco di Bitcoin, questa competizione tecnica su "come far correre la catena più veloce" si è infine divisa in cinque percorsi di base, ognuno dei quali taglia il collo di bottiglia da un'angolazione diversa, con la propria filosofia tecnica, difficoltà di atterraggio, modello di rischio e scenari applicabili. Il primo percorso è il ridimensionamento on-chain più semplice, che significa aumentare la dimensione del blocco, accorciare il tempo di blocco o migliorare la potenza di elaborazione ottimizzando la struttura dei dati e il meccanismo di consenso. Questo approccio è stato al centro del dibattito sulla scalabilità di Bitcoin, dando origine a fork "big block" come BCH e BSV, e influenzando anche le idee di design delle prime catene pubbliche ad alte prestazioni come EOS e NEO. Il vantaggio di questo tipo di percorso è che mantiene la semplicità della coerenza a catena singola, che è facile da capire e implementare, ma è anche molto facile toccare il limite superiore sistemico come il rischio di centralizzazione, l'aumento dei costi operativi dei nodi e l'aumento della difficoltà di sincronizzazione, quindi non è più la soluzione principale nella progettazione odierna, ma è diventata più una collocazione ausiliaria di altri meccanismi. Il secondo tipo di route è il ridimensionamento off-chain, che è rappresentato da canali di stato e sidechain. L'idea di base di questo tipo di percorso è quella di spostare la maggior parte dell'attività di transazione off-chain e scrivere solo il risultato finale nella catena principale, che funge da livello di regolamento finale. In termini di filosofia tecnica, è vicino all'architettura asincrona del Web2: prova a lasciare l'elaborazione delle transazioni pesante alla periferia e la catena principale esegue una verifica affidabile minima. Sebbene questa idea possa teoricamente essere scalabile all'infinito, il modello di fiducia, la sicurezza dei fondi e la complessità di interazione delle transazioni off-chain ne limitano l'applicazione. Ad esempio, sebbene Lightning Network abbia un chiaro posizionamento degli scenari finanziari, la scala dell'ecosistema non è mai esplosa. Tuttavia, più progetti basati su sidechain, come Polygon POS, non solo hanno un throughput elevato, ma espongono anche gli svantaggi della difficile ereditarietà della sicurezza della catena principale. Il terzo tipo di route è la route rollup di livello 2 più diffusa e distribuita. Questo metodo non modifica direttamente la catena principale stessa, ma scala attraverso il meccanismo di esecuzione off-chain e verifica on-chain. L'Optimistic Rollup e lo ZK Rollup hanno i loro vantaggi: il primo è veloce da implementare e altamente compatibile, ma presenta i problemi del ritardo del periodo di sfida e del meccanismo a prova di frode; Quest'ultimo ha una forte sicurezza e buone capacità di compressione dei dati, ma è complesso da sviluppare e manca di compatibilità EVM. Indipendentemente dal tipo di rollup, la sua essenza è quella di esternalizzare la potenza di esecuzione, mantenendo i dati e la verifica sulla catena principale, raggiungendo un relativo equilibrio tra decentralizzazione e prestazioni elevate. La rapida crescita di progetti come Arbitrum, Optimism, zkSync e StarkNet dimostra la fattibilità di questo percorso, ma mette anche in luce colli di bottiglia a medio termine come l'eccessiva dipendenza dalla disponibilità dei dati (DA), i costi elevati e l'esperienza di sviluppo frammentata. Il quarto tipo di percorso è l'architettura blockchain modulare che è emersa negli ultimi anni, come Celestia, Avail, EigenLayer, ecc. Il paradigma modulare sostiene il completo disaccoppiamento delle funzioni principali della blockchain - esecuzione, consenso, disponibilità dei dati e regolamento - da parte di più catene specializzate per completare diverse funzioni, e quindi combinarle in una rete scalabile con un protocollo cross-chain. Questa direzione è fortemente influenzata dall'architettura modulare del sistema operativo e dal concetto di componibilità del cloud computing, che ha il vantaggio di poter sostituire in modo flessibile i componenti del sistema e migliorare notevolmente l'efficienza in ambiti specifici come la DA. Tuttavia, le sfide sono anche molto evidenti: il costo della sincronizzazione, della verifica e della fiducia reciproca tra i sistemi dopo il disaccoppiamento dei moduli è estremamente elevato, l'ecosistema degli sviluppatori è estremamente frammentato e i requisiti per gli standard di protocollo a medio e lungo termine e la sicurezza cross-chain sono molto più elevati rispetto a quelli della progettazione tradizionale della catena. In sostanza, questo modello non costruisce più una "catena", ma una "rete a catena", che propone una soglia senza precedenti per la comprensione dell'architettura complessiva, il funzionamento e la manutenzione. L'ultimo tipo di percorso, che è il fulcro della successiva analisi in questo articolo, è il percorso di ottimizzazione del calcolo parallelo intra-chain. A differenza dei primi quattro tipi di "scissione orizzontale", che effettuano principalmente la "scissione orizzontale" dal livello strutturale, il calcolo parallelo enfatizza l'"upgrading verticale", ovvero l'elaborazione simultanea delle transazioni atomiche viene realizzata modificando l'architettura del motore di esecuzione all'interno di una singola catena. Ciò richiede la riscrittura della logica di pianificazione delle macchine virtuali e l'introduzione di un set completo di meccanismi di pianificazione dei sistemi informatici moderni, ad esempio l'analisi delle dipendenze delle transazioni, la previsione dei conflitti di stato, il controllo del parallelismo e la chiamata asincrona. Solana è il primo progetto a implementare il concetto di VM parallela in un sistema a livello di catena, che realizza l'esecuzione parallela multi-core attraverso il giudizio dei conflitti di transazione basato sul modello di account. La nuova generazione di progetti, come Monad, Sei, Fuel, MegaETH, ecc., cerca inoltre di introdurre idee all'avanguardia come l'esecuzione della pipeline, la concorrenza ottimistica, il partizionamento dello storage e il disaccoppiamento parallelo per costruire core di esecuzione ad alte prestazioni simili alle moderne CPU. Il vantaggio principale di questa direzione è che non ha bisogno di fare affidamento sull'architettura multi-chain per ottenere una svolta nel limite di throughput e allo stesso tempo fornisce una flessibilità di calcolo sufficiente per l'esecuzione di contratti intelligenti complessi, che è un importante prerequisito tecnico per futuri scenari applicativi come AI Agent, giochi a catena su larga scala e derivati ad alta frequenza. Guardando i cinque tipi di percorsi di scalabilità di cui sopra, la divisione dietro di essi è in realtà il compromesso sistematico tra prestazioni, componibilità, sicurezza e complessità di sviluppo della blockchain. Il rollup è forte nell'outsourcing del consenso e nell'ereditarietà sicura, la modularità evidenzia la flessibilità strutturale e il riutilizzo dei componenti, lo scaling off-chain tenta di sfondare il collo di bottiglia della catena principale ma il costo di fiducia è elevato e il parallelismo intra-chain si concentra sull'aggiornamento fondamentale del livello di esecuzione, cercando di avvicinarsi al limite di prestazioni dei moderni sistemi distribuiti senza distruggere la coerenza della catena. È impossibile che ogni percorso risolva tutti i problemi, ma sono queste direzioni che insieme formano un panorama dell'aggiornamento del paradigma di calcolo Web3 e forniscono anche a sviluppatori, architetti e investitori opzioni strategiche estremamente ricche. Proprio come il sistema operativo è passato da single-core a multi-core e i database si sono evoluti da indici sequenziali a transazioni simultanee, l'espansione del Web3 finirà per spostarsi verso un'era di esecuzione altamente parallela. In quest'epoca, le prestazioni non sono più solo una corsa alla velocità a catena, ma un'incarnazione completa della filosofia di progettazione sottostante, della profonda comprensione dell'architettura, della collaborazione software e hardware e del controllo del sistema. E il parallelismo intra-chain potrebbe essere il campo di battaglia finale di questa guerra a lungo termine. 3. Grafico di classificazione del calcolo parallelo: cinque percorsi dall'account all'istruzione Nel contesto della continua evoluzione della tecnologia di scalabilità blockchain, il calcolo parallelo è diventato gradualmente il percorso principale per le scoperte in termini di prestazioni. A differenza del disaccoppiamento orizzontale del livello della struttura, del livello di rete o del livello di disponibilità dei dati, il calcolo parallelo è un mining profondo a livello di esecuzione, che è correlato alla logica più bassa dell'efficienza operativa della blockchain e determina la velocità di risposta e la capacità di elaborazione di un sistema blockchain a fronte di un'elevata concorrenza e di transazioni complesse di tipo multiplo. Partendo dal modello di esecuzione e rivedendo lo sviluppo di questa linea tecnologica, possiamo ordinare una chiara mappa di classificazione del calcolo parallelo, che può essere approssimativamente suddivisa in cinque percorsi tecnici: parallelismo a livello di account, parallelismo a livello di oggetto, parallelismo a livello di transazione, parallelismo a livello di macchina virtuale e parallelismo a livello di istruzione. Questi cinque tipi di percorsi, da quelli a grana grossa a quelli a grana fine, non sono solo il processo di raffinamento continuo della logica parallela, ma anche il percorso di crescente complessità del sistema e difficoltà di programmazione. Il primo parallelismo a livello di account è il paradigma rappresentato da Solana. Questo modello si basa sulla progettazione del disaccoppiamento di conto e stato e determina se esiste una relazione conflittuale analizzando staticamente l'insieme di conti coinvolti nella transazione. Se due transazioni accedono a un insieme di conti che non si sovrappongono tra loro, possono essere eseguite contemporaneamente su più core. Questo meccanismo è ideale per gestire transazioni ben strutturate con input e output chiari, soprattutto per programmi con percorsi prevedibili come la DeFi. Tuttavia, il suo presupposto naturale è che l'accesso all'account sia prevedibile e che la dipendenza dallo stato possa essere dedotta staticamente, il che lo rende incline a un'esecuzione conservativa e a un parallelismo ridotto di fronte a contratti intelligenti complessi (come comportamenti dinamici come giochi a catena e agenti di intelligenza artificiale). Inoltre, la dipendenza incrociata tra i conti rende anche i rendimenti paralleli gravemente indeboliti in alcuni scenari di trading ad alta frequenza. Il runtime di Solana è altamente ottimizzato in questo senso, ma la sua strategia di pianificazione di base è ancora limitata dalla granularità dell'account. Sulla base del modello di conto, entriamo nel livello tecnico del parallelismo a livello di oggetto. Il parallelismo a livello di oggetto introduce l'astrazione semantica di risorse e moduli, con la pianificazione simultanea in unità più dettagliate di "oggetti di stato". Aptos e Sui sono importanti esploratori in questa direzione, in particolare quest'ultimo, che definisce la proprietà e la variabilità delle risorse in fase di compilazione attraverso il sistema di tipi lineari del linguaggio Move, consentendo al runtime di controllare con precisione i conflitti di accesso alle risorse. Rispetto al parallelismo a livello di account, questo metodo è più versatile e scalabile, può coprire una logica di lettura e scrittura di stato più complessa e serve naturalmente scenari altamente eterogenei come giochi, social network e intelligenza artificiale. Tuttavia, il parallelismo a livello di oggetto introduce anche barriere linguistiche più elevate e complessità di sviluppo, e Move non è un sostituto diretto di Solidity, e l'alto costo della commutazione ecologica limita la popolarità del suo paradigma parallelo. Un ulteriore parallelismo a livello di transazione è la direzione esplorata dalla nuova generazione di catene ad alte prestazioni rappresentata da Monad, Sei e Fuel. Invece di considerare gli stati o i conti come l'unità di parallelismo più piccola, il percorso viene costruito attorno a un grafico delle dipendenze intorno all'intera transazione stessa. Considera le transazioni come unità operative atomiche, crea grafici delle transazioni (DAG di transazione) tramite analisi statica o dinamica e si basa su pianificatori per l'esecuzione simultanea del flusso. Questo design consente al sistema di massimizzare il parallelismo del mining senza dover comprendere appieno la struttura di stato sottostante. Monad è particolarmente accattivante, in quanto combina le moderne tecnologie dei motori di database come il controllo della concorrenza ottimistica (OCC), la pianificazione parallela delle pipeline e l'esecuzione fuori ordine, avvicinando l'esecuzione a catena al paradigma dello "scheduler GPU". In pratica, questo meccanismo richiede gestori delle dipendenze e rilevatori di conflitti estremamente complessi, e lo scheduler stesso può anche diventare un collo di bottiglia, ma la sua capacità di throughput potenziale è molto più alta di quella dell'account o del modello a oggetti, rendendolo la forza più teorica nell'attuale percorso di calcolo parallelo. Il parallelismo a livello di macchina virtuale, d'altra parte, incorpora le funzionalità di esecuzione simultanea direttamente nella logica di pianificazione delle istruzioni sottostante della VM, cercando di superare completamente le limitazioni intrinseche dell'esecuzione della sequenza EVM. Come "esperimento di super macchina virtuale" all'interno dell'ecosistema Ethereum, MegaETH sta cercando di riprogettare l'EVM per supportare l'esecuzione simultanea multi-thread del codice dello smart contract. Il livello sottostante consente l'esecuzione indipendente di ogni contratto in contesti di esecuzione diversi attraverso meccanismi quali l'esecuzione segmentata, la segmentazione dello stato e la chiamata asincrona e garantisce la coerenza finale con l'aiuto di un livello di sincronizzazione parallela. La parte più difficile di questo approccio è che deve essere pienamente compatibile con la semantica del comportamento EVM esistente e allo stesso tempo trasformare l'intero ambiente di esecuzione e il meccanismo del gas per migrare senza problemi l'ecosistema Solidity in un framework parallelo. La sfida non è solo la profondità dello stack tecnologico, ma anche l'accettazione di modifiche significative al protocollo della struttura politica L1 di Ethereum. Ma in caso di successo, MegaETH promette di essere una "rivoluzione dei processori multi-core" nello spazio EVM. L'ultimo tipo di percorso è il parallelismo a livello di istruzione, che è il più dettagliato e ha la soglia tecnica più alta. L'idea deriva dall'esecuzione e dalle pipeline di istruzioni fuori ordine della moderna progettazione delle CPU. Questo paradigma sostiene che, poiché ogni smart contract viene infine compilato in istruzioni bytecode, è del tutto possibile pianificare e analizzare ogni operazione e riorganizzarla in parallelo nello stesso modo in cui una CPU esegue un set di istruzioni x86. Il team di Fuel ha inizialmente introdotto un modello di esecuzione riordinabile a livello di istruzione nella sua FuelVM e, a lungo termine, una volta che il motore di esecuzione blockchain implementerà l'esecuzione predittiva e la riorganizzazione dinamica dei dipendenti dalle istruzioni, il suo parallelismo raggiungerà il limite teorico. Questo approccio potrebbe persino portare la co-progettazione blockchain-hardware a un livello completamente nuovo, rendendo la catena un vero e proprio "computer decentralizzato" piuttosto che un semplice "libro mastro distribuito". Naturalmente, questo percorso è ancora in fase teorica e sperimentale, e i relativi scheduler e meccanismi di verifica della sicurezza non sono ancora maturi, ma punta al confine ultimo del futuro del calcolo parallelo. In sintesi, i cinque percorsi di account, object, transaction, VM e instruction costituiscono lo spettro di sviluppo del calcolo parallelo intra-chain, dalla struttura statica dei dati al meccanismo di pianificazione dinamica, dalla previsione dell'accesso allo stato al riarrangiamento a livello di istruzione, ogni fase della tecnologia parallela significa un aumento significativo della complessità del sistema e della soglia di sviluppo. Ma allo stesso tempo, segnano anche un cambiamento di paradigma nel modello di calcolo della blockchain, dal tradizionale registro di consenso a sequenza completa a un ambiente di esecuzione distribuito ad alte prestazioni, prevedibile e dispacciabile. Questo non è solo un recupero dell'efficienza del cloud computing Web2, ma anche una profonda concezione della forma definitiva di "computer blockchain". La selezione di percorsi paralleli per diverse catene pubbliche determinerà anche il limite di portatore dei loro futuri ecosistemi applicativi, nonché la loro competitività di base in scenari come l'agente AI, i giochi a catena e il trading ad alta frequenza on-chain. In quarto luogo, vengono spiegati i due percorsi principali: Monad vs MegaETH Tra i molteplici percorsi di evoluzione del calcolo parallelo, i due principali percorsi tecnici con il maggior focus, la voce più alta e la narrazione più completa nel mercato attuale sono senza dubbio la "costruzione di una catena di calcolo parallelo da zero" rappresentata da Monad e la "rivoluzione parallela all'interno dell'EVM" rappresentata da MegaETH. Queste due direzioni non sono solo le direzioni di ricerca e sviluppo più intense per gli attuali ingegneri primitivi crittografici, ma anche i simboli polari più decisivi nell'attuale corsa alle prestazioni dei computer Web3. La differenza tra i due risiede non solo nel punto di partenza e nello stile dell'architettura tecnica, ma anche negli oggetti ecologici che servono, nel costo della migrazione, nella filosofia di esecuzione e nel futuro percorso strategico dietro di essi. Esse rappresentano una competizione paradigmatica parallela tra "ricostruzionismo" e "compatibilismo" e hanno profondamente influenzato l'immaginazione del mercato sulla forma finale delle catene ad alte prestazioni. Monad è un "fondamentalista computazionale" in tutto e per tutto, e la sua filosofia di progettazione non è progettata per essere compatibile con gli EVM esistenti, ma piuttosto per ridefinire il modo in cui i motori di esecuzione blockchain funzionano sotto il cofano, traendo ispirazione dai moderni database e dai sistemi multi-core ad alte prestazioni. Il suo sistema tecnologico di base si basa su meccanismi maturi nel campo dei database come il controllo della concorrenza ottimistica, la pianificazione DAG delle transazioni, l'esecuzione fuori ordine e l'esecuzione in pipeline, con l'obiettivo di aumentare le prestazioni di elaborazione delle transazioni della catena nell'ordine di milioni di TPS. Nell'architettura Monad, l'esecuzione e l'ordinamento delle transazioni sono completamente disaccoppiati e il sistema prima costruisce un grafico delle dipendenze delle transazioni, quindi lo passa allo scheduler per l'esecuzione parallela. Tutte le transazioni vengono trattate come unità atomiche di transazioni, con set di lettura/scrittura espliciti e snapshot dello stato, e le utilità di pianificazione vengono eseguite in modo ottimistico in base ai grafici delle dipendenze, eseguendo il rollback e la riesecuzione quando si verificano conflitti. Questo meccanismo è estremamente complesso in termini di implementazione tecnica, richiedendo la costruzione di uno stack di esecuzione simile a quello di un moderno gestore di transazioni di database, nonché l'introduzione di meccanismi come il caching multilivello, il prefetching, la validazione parallela, ecc., per comprimere la latenza del commit dello stato finale, ma può teoricamente spingere il limite di throughput ad altezze che non sono immaginate dalla catena corrente. Ancora più importante, Monad non ha rinunciato all'interoperabilità con l'EVM. Utilizza un livello intermedio simile a "Solidity-Compatible Intermediate Language" per supportare gli sviluppatori nella scrittura di contratti nella sintassi Solidity e allo stesso tempo eseguire l'ottimizzazione del linguaggio intermedio e la pianificazione della parallelizzazione nel motore di esecuzione. Questa strategia di progettazione di "compatibilità di superficie e refactoring del fondo" non solo mantiene la cordialità degli sviluppatori ecologici di Ethereum, ma libera anche il potenziale di esecuzione sottostante nella massima misura, che è una tipica strategia tecnica di "ingoiare l'EVM e poi decostruirlo". Ciò significa anche che, una volta lanciato, Monad non solo diventerà una catena sovrana con prestazioni estreme, ma anche un livello di esecuzione ideale per le reti rollup di livello 2 e persino un "core pluggable ad alte prestazioni" per altri moduli di esecuzione a catena a lungo termine. Da questo punto di vista, Monad non è solo un percorso tecnico, ma anche una nuova logica di progettazione della sovranità del sistema, che sostiene la "modularizzazione-prestazioni-riusabilità" del livello di esecuzione, così da creare un nuovo standard per il calcolo collaborativo inter-chain. A differenza della posizione di Monad "new world builder", MegaETH è un tipo di progetto completamente opposto, che sceglie di partire dal mondo esistente di Ethereum e ottenere un aumento significativo dell'efficienza di esecuzione con costi di modifica minimi. MegaETH non ribalta la specifica EVM, ma piuttosto cerca di integrare la potenza del calcolo parallelo nel motore di esecuzione dell'EVM esistente, creando una versione futura dell'"EVM multi-core". La logica risiede in un refactoring completo dell'attuale modello di esecuzione delle istruzioni EVM con funzionalità come l'isolamento a livello di thread, l'esecuzione asincrona a livello di contratto e il rilevamento dei conflitti di accesso allo stato, consentendo l'esecuzione simultanea di più contratti intelligenti nello stesso blocco e infine l'unione delle modifiche di stato. Questo modello richiede agli sviluppatori di ottenere significativi guadagni in termini di prestazioni dallo stesso contratto distribuito sulla catena MegaETH senza modificare i contratti Solidity esistenti, utilizzando nuovi linguaggi o toolchain. Questo percorso di "rivoluzione conservativa" è estremamente attraente, soprattutto per l'ecosistema Ethereum L2, in quanto fornisce un percorso ideale per aggiornamenti delle prestazioni indolori senza la necessità di migrare la sintassi. La svolta principale di MegaETH risiede nel suo meccanismo di pianificazione multi-thread VM. Gli EVM tradizionali utilizzano un modello di esecuzione stacked a thread singolo, in cui ogni istruzione viene eseguita in modo lineare e gli aggiornamenti di stato devono avvenire in modo sincrono. MegaETH rompe questo schema e introduce uno stack di chiamate asincrone e un meccanismo di isolamento del contesto di esecuzione, in modo da ottenere l'esecuzione simultanea di "contesti EVM concorrenti". Ogni contratto può richiamare la propria logica in un thread separato e tutti i thread rileveranno e convergeranno uniformemente lo stato attraverso il livello di commit parallelo quando lo stato viene infine inviato. Questo meccanismo è molto simile al modello multithreading JavaScript dei browser moderni (Web Workers + Shared Memory + Lock-Free Data), che mantiene il determinismo del comportamento del thread principale e introduce un meccanismo di pianificazione ad alte prestazioni che è asincrono in background. In pratica, questo design è anche estremamente amichevole per i costruttori di blocchi e i ricercatori e può ottimizzare l'ordinamento Mempool e i percorsi di cattura MEV secondo strategie parallele, formando un ciclo chiuso di vantaggi economici a livello di esecuzione. Ancora più importante, MegaETH sceglie di essere profondamente legato all'ecosistema Ethereum e il suo principale punto di approdo in futuro sarà probabilmente una rete EVM L2 Rollup, come Optimism, Base o Arbitrum Orbit chain. Una volta adottato su larga scala, può ottenere un miglioramento delle prestazioni di quasi 100 volte superiore allo stack tecnologico Ethereum esistente senza modificare la semantica dei contratti, il modello di stato, la logica del gas, i metodi di invocazione, ecc., il che lo rende una direzione di aggiornamento tecnologico interessante per i conservatori EVM. Il paradigma di MegaETH è: finché stai ancora facendo cose su Ethereum, allora lascerò che le tue prestazioni di calcolo salgano alle stelle. Dal punto di vista del realismo e dell'ingegneria, è più facile da implementare rispetto a Monad, ed è più in linea con il percorso iterativo dei principali progetti DeFi e NFT, il che lo rende un candidato per il supporto ecologico a breve termine. In un certo senso, le due strade di Monad e MegaETH non sono solo due implementazioni di percorsi tecnologici paralleli, ma anche un classico confronto tra "refactoring" e "compatibilità" nel percorso di sviluppo della blockchain: la prima persegue una svolta di paradigma e ricostruisce tutta la logica dalle macchine virtuali alla gestione dello stato sottostante per ottenere prestazioni e plasticità architetturale definitive; Quest'ultimo persegue l'ottimizzazione incrementale, spingendo al limite i sistemi tradizionali nel rispetto dei vincoli ecologici esistenti, minimizzando così i costi di migrazione. Non ci sono vantaggi o svantaggi assoluti tra i due, ma servono diversi gruppi di sviluppatori e visioni dell'ecosistema. Monad è più adatto per la creazione di nuovi sistemi da zero, giochi a catena che perseguono un throughput estremo, agenti di intelligenza artificiale e catene di esecuzione modulari. MegaETH, d'altra parte, è più adatto per progetti L2, progetti DeFi e protocolli infrastrutturali che vogliono ottenere aggiornamenti delle prestazioni con modifiche di sviluppo minime. Sono come treni ad alta velocità su un nuovo binario, ridefiniti dal binario, dalla rete elettrica alla carrozzeria dell'auto, solo per raggiungere una velocità e un'esperienza senza precedenti; Un altro esempio è l'installazione di turbine sulle autostrade esistenti, il miglioramento della programmazione delle corsie e della struttura del motore, consentendo ai veicoli di andare più veloci senza lasciare la rete stradale familiare. Le due cose potrebbero finire allo stesso modo: nella prossima fase delle architetture blockchain modulari, Monad potrebbe diventare un modulo "execution-as-a-service" per i Rollup, e MegaETH potrebbe diventare un plugin di accelerazione delle prestazioni per i L2 mainstream. I due potrebbero eventualmente convergere per formare le due ali del motore di esecuzione distribuita ad alte prestazioni nel futuro mondo Web3. 5. Opportunità e sfide future del calcolo parallelo Man mano che il calcolo parallelo passa dalla progettazione cartacea all'implementazione on-chain, il potenziale che sblocca sta diventando più concreto e misurabile. Da un lato, abbiamo visto che nuovi paradigmi di sviluppo e modelli di business hanno iniziato a ridefinire le "prestazioni on-chain": una logica di gioco a catena più complessa, un ciclo di vita dell'agente AI più realistico, un protocollo di scambio dati più in tempo reale, un'esperienza interattiva più immersiva e persino un sistema operativo Super App collaborativo on-chain stanno cambiando da "possiamo farlo" a "quanto bene possiamo farlo". D'altra parte, ciò che guida davvero la transizione al calcolo parallelo non è solo il miglioramento lineare delle prestazioni del sistema, ma anche il cambiamento strutturale dei confini cognitivi degli sviluppatori e dei costi di migrazione ecologica. Proprio come l'introduzione del meccanismo di contratto Turing-complete da parte di Ethereum ha dato vita all'esplosione multidimensionale di DeFi, NFT e DAO, la "ricostruzione asincrona tra stato e istruzione" determinata dal calcolo parallelo sta anche dando vita a un nuovo modello mondiale on-chain, che non è solo una rivoluzione nell'efficienza di esecuzione, ma anche un focolaio di innovazione della fissione nella struttura del prodotto. Innanzitutto, dal punto di vista delle opportunità, il vantaggio più diretto è l'"innalzamento del tetto delle candidature". La maggior parte delle attuali applicazioni DeFi, di gioco e social sono limitate da colli di bottiglia statali, costi del gas e latenza e non possono realmente trasportare interazioni ad alta frequenza sulla catena su larga scala. Prendendo come esempio i giochi a catena, il GameFi con feedback di movimento reale, sincronizzazione del comportamento ad alta frequenza e logica di combattimento in tempo reale quasi non esiste, perché l'esecuzione lineare dell'EVM tradizionale non può supportare la conferma della trasmissione di dozzine di cambiamenti di stato al secondo. Con il supporto del calcolo parallelo, attraverso meccanismi come i DAG transazionali e i contesti asincroni a livello di contratto, è possibile costruire catene ad alta concorrenza e garantire risultati di esecuzione deterministici attraverso la coerenza degli snapshot, in modo da ottenere una svolta strutturale nel "motore di gioco on-chain". Analogamente, anche l'implementazione e il funzionamento degli agenti di IA saranno notevolmente migliorati dal calcolo parallelo. In passato, tendevamo a eseguire gli agenti di intelligenza artificiale off-chain e a caricare i risultati del loro comportamento solo su contratti on-chain, ma in futuro l'on-chain può supportare la collaborazione asincrona e la condivisione dello stato tra più entità di intelligenza artificiale attraverso la pianificazione parallela delle transazioni, in modo da realizzare veramente la logica autonoma in tempo reale dell'agente on-chain. Il calcolo parallelo sarà l'infrastruttura per questo "contratto guidato dal comportamento", guidando il Web3 da una "transazione come risorsa" a un nuovo mondo di "interazione come agente". In secondo luogo, anche la toolchain di sviluppo e il livello di astrazione della macchina virtuale sono stati rimodellati strutturalmente a causa della parallelizzazione. Il tradizionale paradigma di sviluppo di Solidity si basa su un modello di pensiero seriale, in cui gli sviluppatori sono abituati a progettare la logica come un cambiamento di stato a thread singolo, ma nelle architetture di calcolo parallelo, gli sviluppatori saranno costretti a pensare ai conflitti di set di lettura/scrittura, alle politiche di isolamento dello stato, all'atomicità delle transazioni e persino a introdurre modelli architettonici basati su code di messaggi o pipeline di stato. Questo salto nella struttura cognitiva ha anche dato vita alla rapida ascesa di una nuova generazione di catene di strumenti. Ad esempio, i framework di smart contract paralleli che supportano le dichiarazioni di dipendenza transazionale, i compilatori di ottimizzazione basati su IR e i debugger concorrenti che supportano la simulazione di snapshot delle transazioni diventeranno tutti focolai di esplosioni dell'infrastruttura nel nuovo ciclo. Allo stesso tempo, la continua evoluzione delle blockchain modulari ha portato anche un eccellente percorso di atterraggio per il calcolo parallelo: Monad può essere inserito in L2 Rollup come modulo di esecuzione, MegaETH può essere implementato come sostituto EVM per le catene mainstream, Celestia fornisce il supporto del livello di disponibilità dei dati e EigenLayer fornisce una rete di validatori decentralizzata, formando così un'architettura integrata ad alte prestazioni dai dati sottostanti alla logica di esecuzione. Tuttavia, l'avanzamento del calcolo parallelo non è una strada facile e le sfide sono ancora più strutturali e difficili da rosicchiare rispetto alle opportunità. Da un lato, le principali difficoltà tecniche risiedono nella "garanzia di coerenza della concorrenza statale" e nella "strategia di gestione dei conflitti di transazione". A differenza dei database off-chain, l'on-chain non può tollerare un grado arbitrario di rollback delle transazioni o di retrazione dello stato, ed eventuali conflitti di esecuzione devono essere modellati in anticipo o controllati con precisione durante l'evento. Ciò significa che l'utilità di pianificazione parallela deve disporre di forti funzionalità di costruzione del grafico delle dipendenze e di previsione dei conflitti e allo stesso tempo progettare un meccanismo di tolleranza agli errori di esecuzione ottimistico efficiente, altrimenti il sistema è soggetto a "tempesta di tentativi di errore simultaneo" in condizioni di carico elevato, che non solo aumenta ma diminuisce e causa persino l'instabilità della catena. Inoltre, l'attuale modello di sicurezza dell'ambiente di esecuzione multi-thread non è ancora stato completamente stabilito, come la precisione del meccanismo di isolamento dello stato tra i thread, il nuovo utilizzo di attacchi di re-entrancy in contesti asincroni e l'esplosione di gas di chiamate di contratto cross-threaded, tutti nuovi problemi che devono essere risolti. Le sfide più insidiose derivano da aspetti ecologici e psicologici. Se gli sviluppatori sono disposti a migrare verso il nuovo paradigma, se sono in grado di padroneggiare i metodi di progettazione dei modelli paralleli e se sono disposti a rinunciare ad una certa leggibilità e verificabilità contrattuale per ottenere vantaggi in termini di prestazioni sono la chiave per stabilire se il calcolo parallelo può formare energia potenziale ecologica. Negli ultimi anni, abbiamo visto un certo numero di catene con prestazioni superiori ma prive di supporto per gli sviluppatori cadere gradualmente in silenzio, come NEAR, Avalanche e persino alcune catene Cosmos SDK con prestazioni di gran lunga migliori di EVM, e la loro esperienza ci ricorda che senza sviluppatori non c'è ecosistema; Senza ecologia, non importa quanto siano buone le prestazioni, è solo un castello in aria. Pertanto, i progetti di calcolo parallelo non dovrebbero solo realizzare il motore più potente, ma anche realizzare il percorso di transizione ecologica più delicato, in modo che "le prestazioni siano il pronto all'uso" piuttosto che "le prestazioni siano la soglia cognitiva". In definitiva, il futuro del calcolo parallelo è sia un trionfo per l'ingegneria dei sistemi che un test per l'eco-design. Ci costringerà a riesaminare "qual è l'essenza della catena": è una macchina di regolamento decentralizzata o un orchestratore statale in tempo reale distribuito a livello globale? In quest'ultimo caso, le capacità di throughput statale, concorrenza delle transazioni e reattività ai contratti, che in precedenza erano considerate "dettagli tecnici della catena", diventeranno alla fine gli indicatori primari che definiscono il valore della catena. Il paradigma di calcolo parallelo che completerà veramente questa transizione diventerà anche la primitiva dell'infrastruttura più core e più composta in questo nuovo ciclo, e il suo impatto andrà ben oltre un modulo tecnico e potrebbe costituire un punto di svolta nel paradigma di calcolo complessivo del Web3. 6. Conclusione: il calcolo parallelo è il percorso migliore per la scalabilità nativa Web3? Di tutti i percorsi che esplorano i confini delle prestazioni Web3, il calcolo parallelo non è il più facile da implementare, ma potrebbe essere il più vicino all'essenza della blockchain. Non migra off-chain, né sacrifica la decentralizzazione in cambio del throughput, ma cerca di ricostruire il modello di esecuzione stesso nell'atomicità e nel determinismo della catena, dal livello di transazione, dal livello di contratto e dal livello di macchina virtuale alla radice del collo di bottiglia delle prestazioni. Questo metodo di scalabilità "nativo della catena" non solo mantiene il modello di fiducia di base della blockchain, ma riserva anche un terreno di prestazioni sostenibili per applicazioni on-chain più complesse in futuro. La sua difficoltà sta nella struttura, e il suo fascino sta nella struttura. Se il refactoring modulare è l'"architettura della catena", allora il refactoring del calcolo parallelo è "l'anima della catena". Questa potrebbe non essere una scorciatoia per lo sdoganamento, ma è probabile che sia l'unica soluzione positiva sostenibile nell'evoluzione a lungo termine del Web3. Stiamo assistendo a una transizione architetturale da CPU single-core a sistemi operativi multi-core/threaded e l'aspetto di sistemi operativi nativi Web3 potrebbe essere nascosto in questi esperimenti paralleli in-chain.
Mostra originale
121.056
1
Odaily
Odaily
1. Introduzione: L'espansione è una proposta eterna e il parallelismo è il campo di battaglia definitivo Sin dalla nascita di Bitcoin, il sistema blockchain ha sempre affrontato un problema fondamentale ineludibile: la scalabilità. Bitcoin elabora meno di 10 transazioni al secondo, ed Ethereum fatica a superare il collo di bottiglia delle prestazioni di decine di TPS (transazioni al secondo), particolarmente ingombrante nel mondo tradizionale del Web2, dove spesso vengono utilizzati decine di migliaia di TPS. Ancora più importante, questo non è un semplice problema che può essere risolto "aggiungendo server", ma una limitazione sistemica profondamente radicata nel consenso sottostante e nel design strutturale della blockchain, ovvero il triangolo impossibile della blockchain in cui "decentralizzazione, sicurezza e scalabilità" non possono essere combinate. Nell'ultimo decennio, abbiamo assistito a innumerevoli tentativi di espansione in ascesa e in diminuzione. Dalla guerra di scalabilità di Bitcoin alla visione dello sharding di Ethereum, dai canali di stato e plasma ai rollup e alle blockchain modulari, dall'esecuzione off-chain in Layer 2 al refactoring strutturale della disponibilità dei dati, l'intero settore ha intrapreso un percorso di scalabilità pieno di immaginazione ingegneristica. Come paradigma di scalabilità più ampiamente accettato, il rollup ha raggiunto l'obiettivo di aumentare significativamente il TPS, riducendo al contempo l'onere di esecuzione della catena principale e preservando la sicurezza di Ethereum. Ma non tocca i limiti reali delle "prestazioni single-chain" sottostanti alla blockchain, soprattutto a livello di esecuzione, che è il throughput del blocco stesso – è ancora limitato dall'antico paradigma di elaborazione del calcolo seriale on-chain. Per questo motivo, il calcolo parallelo in-chain è entrato gradualmente nel campo visivo del settore. A differenza della scalabilità off-chain e della distribuzione cross-chain, il parallelismo intra-chain tenta di ricostruire completamente il motore di esecuzione mantenendo l'atomicità a catena singola e la struttura integrata, e aggiorna la blockchain da una modalità a thread singolo di "esecuzione seriale di una transazione per una" a un sistema di calcolo ad alta concorrenza di "multi-threading + pipeline + pianificazione delle dipendenze" sotto la guida del moderno sistema operativo e della progettazione della CPU. Un tale percorso potrebbe non solo ottenere un aumento di cento volte del throughput, ma potrebbe anche diventare un prerequisito chiave per l'esplosione delle applicazioni di smart contract. Infatti, nel paradigma del Web2 computing, il single-threaded computing è stato da tempo eliminato dalle moderne architetture hardware e sostituito da un flusso infinito di modelli di ottimizzazione come la programmazione parallela, la pianificazione asincrona, i pool di thread e i microservizi. La blockchain, in quanto sistema di calcolo più primitivo e conservativo con requisiti estremamente elevati di certezza e verificabilità, non è mai stata in grado di sfruttare appieno queste idee di calcolo parallelo. Questo è sia un limite che un'opportunità. Nuove catene come Solana, Sui e Aptos sono le prime ad avviare questa esplorazione introducendo il parallelismo a livello architettonico. Progetti emergenti come Monad e MegaETH hanno ulteriormente elevato il parallelismo on-chain a scoperte in meccanismi profondi come l'esecuzione delle pipeline, la concorrenza ottimistica e l'asincrono message-driven, mostrando caratteristiche che si stanno avvicinando sempre di più ai moderni sistemi operativi. Si può dire che il calcolo parallelo non è solo un "metodo di ottimizzazione delle prestazioni", ma anche un punto di svolta nel paradigma del modello di esecuzione blockchain. Sfida i modelli fondamentali dell'esecuzione degli smart contract e ridefinisce la logica di base del packaging delle transazioni, dell'accesso allo stato, delle relazioni di chiamata e del layout di archiviazione. Se il rollup consiste nel "spostare le transazioni nell'esecuzione off-chain", il parallelismo on-chain consiste nel "costruire core di supercalcolo on-chain" e il suo obiettivo non è semplicemente migliorare il throughput, ma fornire un supporto infrastrutturale veramente sostenibile per le future applicazioni native del Web3 (trading ad alta frequenza, motori di gioco, esecuzione di modelli AI, social on-chain, ecc.). Dopo che il percorso di rollup tende gradualmente ad essere omogeneo, il parallelismo intra-chain sta silenziosamente diventando la variabile decisiva del nuovo ciclo di competizione Layer 1. Le prestazioni non sono più solo "più veloci", ma la possibilità di poter supportare un intero mondo applicativo eterogeneo. Questa non è solo una gara tecnica, ma anche una battaglia di paradigma. È probabile che la prossima generazione di piattaforme di esecuzione sovrana nel mondo Web3 emerga da questo wrestling parallelo intra-chain. 2. Panorama del paradigma di espansione: cinque tipi di percorsi, ognuno con la propria enfasi L'espansione della capacità, come uno dei temi più importanti, sostenuti e difficili nell'evoluzione della tecnologia della catena pubblica, ha dato vita all'emergere e all'evoluzione di quasi tutti i percorsi tecnologici mainstream nell'ultimo decennio. Partendo dalla battaglia sulla dimensione del blocco di Bitcoin, questa competizione tecnica su "come far correre la catena più veloce" si è infine divisa in cinque percorsi di base, ognuno dei quali taglia il collo di bottiglia da un'angolazione diversa, con la propria filosofia tecnica, difficoltà di atterraggio, modello di rischio e scenari applicabili. Il primo percorso è il ridimensionamento on-chain più semplice, che significa aumentare la dimensione del blocco, accorciare il tempo di blocco o migliorare la potenza di elaborazione ottimizzando la struttura dei dati e il meccanismo di consenso. Questo approccio è stato al centro del dibattito sulla scalabilità di Bitcoin, dando origine a fork di fazione "big block" come BCH e BSV, e influenzando anche le idee di design delle prime chain pubbliche ad alte prestazioni come EOS e NEO. Il vantaggio di questo tipo di percorso è che mantiene la semplicità della coerenza a catena singola, che è facile da capire e implementare, ma è anche molto facile toccare il limite superiore sistemico come il rischio di centralizzazione, l'aumento dei costi operativi dei nodi e l'aumento della difficoltà di sincronizzazione, quindi non è più la soluzione principale nella progettazione odierna, ma è diventata più una collocazione ausiliaria di altri meccanismi. Il secondo tipo di route è il ridimensionamento off-chain, che è rappresentato da canali di stato e sidechain. L'idea di base di questo tipo di percorso è quella di spostare la maggior parte dell'attività di transazione off-chain e scrivere solo il risultato finale nella catena principale, che funge da livello di regolamento finale. In termini di filosofia tecnica, è vicino all'architettura asincrona del Web2: prova a lasciare l'elaborazione delle transazioni pesante alla periferia e la catena principale esegue una verifica affidabile minima. Sebbene questa idea possa teoricamente essere scalabile all'infinito, il modello di fiducia, la sicurezza dei fondi e la complessità di interazione delle transazioni off-chain ne limitano l'applicazione. Ad esempio, sebbene Lightning Network abbia un chiaro posizionamento degli scenari finanziari, la scala dell'ecosistema non è mai esplosa. Tuttavia, più progetti basati su sidechain, come Polygon POS, non solo hanno un throughput elevato, ma espongono anche gli svantaggi della difficile ereditarietà della sicurezza della catena principale. Il terzo tipo di route è la route rollup di livello 2 più diffusa e distribuita. Questo metodo non modifica direttamente la catena principale stessa, ma scala attraverso il meccanismo di esecuzione off-chain e verifica on-chain. L'Optimistic Rollup e lo ZK Rollup hanno i loro vantaggi: il primo è veloce da implementare e altamente compatibile, ma presenta i problemi del ritardo del periodo di sfida e del meccanismo a prova di frode; Quest'ultimo ha una forte sicurezza e buone capacità di compressione dei dati, ma è complesso da sviluppare e manca di compatibilità EVM. Indipendentemente dal tipo di rollup, la sua essenza è quella di esternalizzare la potenza di esecuzione, mantenendo i dati e la verifica sulla catena principale, raggiungendo un relativo equilibrio tra decentralizzazione e prestazioni elevate. La rapida crescita di progetti come Arbitrum, Optimism, zkSync e StarkNet dimostra la fattibilità di questo percorso, ma mette anche in luce colli di bottiglia a medio termine come l'eccessiva dipendenza dalla disponibilità dei dati (DA), i costi elevati e l'esperienza di sviluppo frammentata. Il quarto tipo di percorso è l'architettura blockchain modulare che è emersa negli ultimi anni, come Celestia, Avail, EigenLayer, ecc. Il paradigma modulare sostiene il completo disaccoppiamento delle funzioni principali della blockchain - esecuzione, consenso, disponibilità dei dati e regolamento - da parte di più catene specializzate per completare diverse funzioni, e quindi combinarle in una rete scalabile con un protocollo cross-chain. Questa direzione è fortemente influenzata dall'architettura modulare del sistema operativo e dalla componibilità del cloud computing, che ha il vantaggio di poter sostituire in modo flessibile i componenti del sistema e migliorare notevolmente l'efficienza in ambiti specifici come la DA. Tuttavia, le sfide sono anche molto evidenti: il costo della sincronizzazione, della verifica e della fiducia reciproca tra i sistemi dopo il disaccoppiamento dei moduli è estremamente elevato, l'ecosistema degli sviluppatori è estremamente frammentato e i requisiti per gli standard di protocollo a medio e lungo termine e la sicurezza cross-chain sono molto più elevati rispetto a quelli della progettazione tradizionale della catena. In sostanza, questo modello non costruisce più una "catena", ma una "rete a catena", che propone una soglia senza precedenti per la comprensione dell'architettura complessiva, il funzionamento e la manutenzione. L'ultimo tipo di percorso, che è il fulcro della successiva analisi in questo articolo, è il percorso di ottimizzazione del calcolo parallelo intra-chain. A differenza dei primi quattro tipi di "scissione orizzontale", che effettuano principalmente la "scissione orizzontale" dal livello strutturale, il calcolo parallelo enfatizza l'"upgrading verticale", ovvero l'elaborazione simultanea delle transazioni atomiche viene realizzata modificando l'architettura del motore di esecuzione all'interno di una singola catena. Ciò richiede la riscrittura della logica di pianificazione delle macchine virtuali e l'introduzione di un set completo di meccanismi di pianificazione dei sistemi informatici moderni, ad esempio l'analisi delle dipendenze delle transazioni, la previsione dei conflitti di stato, il controllo del parallelismo e la chiamata asincrona. Solana è il primo progetto a implementare il concetto di VM parallela in un sistema a livello di catena, che realizza l'esecuzione parallela multi-core attraverso il giudizio dei conflitti di transazione basato sul modello di account. La nuova generazione di progetti, come Monad, Sei, Fuel, MegaETH, ecc., cerca inoltre di introdurre idee all'avanguardia come l'esecuzione della pipeline, la concorrenza ottimistica, il partizionamento dello storage e il disaccoppiamento parallelo per costruire core di esecuzione ad alte prestazioni simili alle moderne CPU. Il vantaggio principale di questa direzione è che non ha bisogno di fare affidamento sull'architettura multi-chain per ottenere una svolta nel limite di throughput e allo stesso tempo fornisce una flessibilità di calcolo sufficiente per l'esecuzione di contratti intelligenti complessi, che è un importante prerequisito tecnico per futuri scenari applicativi come AI Agent, giochi a catena su larga scala e derivati ad alta frequenza. Guardando i cinque tipi di percorsi di scalabilità di cui sopra, la divisione dietro di essi è in realtà il compromesso sistematico tra prestazioni, componibilità, sicurezza e complessità di sviluppo della blockchain. Il rollup è forte nell'outsourcing del consenso e nell'ereditarietà sicura, la modularità evidenzia la flessibilità strutturale e il riutilizzo dei componenti, lo scaling off-chain tenta di sfondare il collo di bottiglia della catena principale ma il costo di fiducia è elevato e il parallelismo intra-chain si concentra sull'aggiornamento fondamentale del livello di esecuzione, cercando di avvicinarsi al limite di prestazioni dei moderni sistemi distribuiti senza distruggere la coerenza della catena. È impossibile che ogni percorso risolva tutti i problemi, ma sono queste direzioni che insieme formano un panorama dell'aggiornamento del paradigma di calcolo Web3 e forniscono anche a sviluppatori, architetti e investitori opzioni strategiche estremamente ricche. Proprio come il sistema operativo è passato da single-core a multi-core e i database si sono evoluti da indici sequenziali a transazioni simultanee, l'espansione del Web3 finirà per spostarsi verso un'era di esecuzione altamente parallela. In quest'epoca, le prestazioni non sono più solo una corsa alla velocità a catena, ma un'incarnazione completa della filosofia di progettazione sottostante, della profonda comprensione dell'architettura, della collaborazione software e hardware e del controllo del sistema. E il parallelismo intra-chain potrebbe essere il campo di battaglia finale di questa guerra a lungo termine. 3. Grafico di classificazione del calcolo parallelo: cinque percorsi dall'account all'istruzione Nel contesto della continua evoluzione della tecnologia di scalabilità blockchain, il calcolo parallelo è diventato gradualmente il percorso principale per le scoperte in termini di prestazioni. A differenza del disaccoppiamento orizzontale del livello della struttura, del livello di rete o del livello di disponibilità dei dati, il calcolo parallelo è un mining profondo a livello di esecuzione, che è correlato alla logica più bassa dell'efficienza operativa della blockchain e determina la velocità di risposta e la capacità di elaborazione di un sistema blockchain a fronte di un'elevata concorrenza e di transazioni complesse di tipo multiplo. Partendo dal modello di esecuzione e rivedendo lo sviluppo di questa linea tecnologica, possiamo ordinare una chiara mappa di classificazione del calcolo parallelo, che può essere approssimativamente suddivisa in cinque percorsi tecnici: parallelismo a livello di account, parallelismo a livello di oggetto, parallelismo a livello di transazione, parallelismo a livello di macchina virtuale e parallelismo a livello di istruzione. Questi cinque tipi di percorsi, da quelli a grana grossa a quelli a grana fine, non sono solo il processo di raffinamento continuo della logica parallela, ma anche il percorso di crescente complessità del sistema e difficoltà di programmazione. Il primo parallelismo a livello di account è stato rappresentato da Solana. Questo modello si basa sulla progettazione del disaccoppiamento di conto e stato e determina se esiste una relazione conflittuale analizzando staticamente l'insieme di conti coinvolti nella transazione. Se due transazioni accedono a un insieme di conti che non si sovrappongono tra loro, possono essere eseguite contemporaneamente su più core. Questo meccanismo è ideale per gestire transazioni ben strutturate con input e output chiari, soprattutto per programmi con percorsi prevedibili come la DeFi. Tuttavia, il suo presupposto naturale è che l'accesso all'account sia prevedibile e che la dipendenza dallo stato possa essere dedotta staticamente, il che lo rende incline a un'esecuzione conservativa e a un parallelismo ridotto di fronte a contratti intelligenti complessi (come comportamenti dinamici come giochi a catena e agenti di intelligenza artificiale). Inoltre, la dipendenza incrociata tra i conti rende anche i rendimenti paralleli gravemente indeboliti in alcuni scenari di trading ad alta frequenza. Il runtime di Solana è altamente ottimizzato in questo senso, ma la sua strategia di pianificazione di base è ancora limitata dalla granularità dell'account. Sulla base del modello di conto, entriamo nel livello tecnico del parallelismo a livello di oggetto. Il parallelismo a livello di oggetto introduce l'astrazione semantica di risorse e moduli, con la pianificazione simultanea in unità più dettagliate di "oggetti di stato". Aptos e Sui sono importanti esploratori in questa direzione, in particolare quest'ultimo, che definisce la proprietà e la variabilità delle risorse in fase di compilazione attraverso il sistema di tipi lineari del linguaggio Move, consentendo al runtime di controllare con precisione i conflitti di accesso alle risorse. Rispetto al parallelismo a livello di account, questo metodo è più versatile e scalabile, può coprire una logica di lettura e scrittura di stato più complessa e serve naturalmente scenari altamente eterogenei come giochi, social network e intelligenza artificiale. Tuttavia, il parallelismo a livello di oggetto introduce anche una soglia di linguaggio e una complessità di sviluppo più elevate, e Move non è un sostituto diretto di Solidity, e l'alto costo della commutazione ecologica limita la divulgazione del suo paradigma parallelo. Un ulteriore parallelismo a livello di transazione è la direzione esplorata dalla nuova generazione di catene ad alte prestazioni rappresentata da Monad, Sei e Fuel. Invece di considerare gli stati o i conti come l'unità di parallelismo più piccola, il percorso viene costruito attorno a un grafico delle dipendenze intorno all'intera transazione stessa. Considera le transazioni come unità operative atomiche, crea grafici delle transazioni (DAG di transazione) tramite analisi statica o dinamica e si basa su pianificatori per l'esecuzione simultanea del flusso. Questo design consente al sistema di massimizzare il parallelismo del mining senza dover comprendere appieno la struttura di stato sottostante. Monad è particolarmente degno di nota per la sua combinazione di moderne tecnologie di motori di database come il controllo della concorrenza ottimistica (OCC), la pianificazione parallela della pipeline e l'esecuzione fuori ordine, avvicinando l'esecuzione della catena al paradigma dello "scheduler GPU". In pratica, questo meccanismo richiede gestori delle dipendenze e rilevatori di conflitti estremamente complessi, e lo scheduler stesso può anche diventare un collo di bottiglia, ma la sua capacità di throughput potenziale è molto più alta di quella dell'account o del modello a oggetti, rendendolo la forza più teorica nell'attuale percorso di calcolo parallelo. Il parallelismo a livello di macchina virtuale, d'altra parte, incorpora le funzionalità di esecuzione simultanea direttamente nella logica di pianificazione delle istruzioni sottostante della VM, cercando di superare completamente le limitazioni intrinseche dell'esecuzione della sequenza EVM. MegaETH, come "esperimento di super macchina virtuale" all'interno dell'ecosistema Ethereum, sta cercando di riprogettare l'EVM per supportare l'esecuzione simultanea multi-thread del codice degli smart contract. Il livello sottostante consente l'esecuzione indipendente di ogni contratto in contesti di esecuzione diversi attraverso meccanismi quali l'esecuzione segmentata, la segmentazione dello stato e la chiamata asincrona e garantisce la coerenza finale con l'aiuto di un livello di sincronizzazione parallela. L'aspetto più difficile di questo approccio è che deve essere pienamente compatibile con la semantica del comportamento EVM esistente, rinnovando al contempo l'intero ambiente di esecuzione e il meccanismo del gas per consentire all'ecosistema Solidity di migrare senza problemi verso un framework parallelo. La sfida non è solo la profondità dello stack tecnologico, ma anche l'accettazione di modifiche significative al protocollo della struttura politica L1 di Ethereum. Ma in caso di successo, MegaETH promette di essere una "rivoluzione dei processori multi-core" nello spazio EVM. L'ultimo tipo di percorso è il parallelismo a livello di istruzione, che è il più dettagliato e ha la soglia tecnica più alta. L'idea deriva dalla pipeline di istruzioni e esecuzione fuori ordine nella moderna progettazione delle CPU. Questo paradigma sostiene che, poiché ogni smart contract viene infine compilato in istruzioni bytecode, è del tutto possibile programmare e riorganizzare ogni operazione in parallelo come una CPU che esegue il set di istruzioni x 86. Il team di Fuel ha inizialmente introdotto un modello di esecuzione riordinabile a livello di istruzione nella sua FuelVM e, a lungo termine, una volta che il motore di esecuzione blockchain implementerà l'esecuzione predittiva e la riorganizzazione dinamica delle istruzioni dipendenti, il suo parallelismo raggiungerà il suo limite teorico. Questo approccio potrebbe persino portare la co-progettazione blockchain-hardware a un livello completamente nuovo, rendendo la catena un vero e proprio "computer decentralizzato" piuttosto che un semplice "libro mastro distribuito". Naturalmente, questo percorso è ancora in fase teorica e sperimentale, e i relativi scheduler e meccanismi di verifica della sicurezza non sono ancora maturi, ma punta al confine ultimo del futuro del calcolo parallelo. In sintesi, i cinque percorsi di account, object, transaction, VM e instruction costituiscono lo spettro di sviluppo del calcolo parallelo intra-chain, dalla struttura statica dei dati al meccanismo di pianificazione dinamica, dalla previsione dell'accesso allo stato al riarrangiamento a livello di istruzione, ogni fase della tecnologia parallela significa un aumento significativo della complessità del sistema e della soglia di sviluppo. Ma allo stesso tempo, segnano anche un cambiamento di paradigma nel modello di calcolo della blockchain, dal tradizionale registro di consenso a sequenza completa a un ambiente di esecuzione distribuito ad alte prestazioni, prevedibile e dispacciabile. Questo non è solo un recupero dell'efficienza del cloud computing Web2, ma anche una profonda concezione della forma definitiva di "computer blockchain". La selezione di percorsi paralleli per diverse catene pubbliche determinerà anche il limite superiore sopportabile dei loro futuri ecosistemi applicativi, nonché la loro competitività di base in scenari come l'agente AI, i giochi a catena e il trading ad alta frequenza on-chain. In quarto luogo, vengono spiegati i due percorsi principali: Monad vs MegaETH Tra i molteplici percorsi di evoluzione del calcolo parallelo, i due principali percorsi tecnici con il maggior focus, la voce più alta e la narrazione più completa nel mercato attuale sono senza dubbio la "costruzione di una catena di calcolo parallelo da zero" rappresentata da Monad e la "rivoluzione parallela all'interno dell'EVM" rappresentata da MegaETH. Queste due direzioni non sono solo le direzioni di ricerca e sviluppo più intense per gli attuali ingegneri primitivi crittografici, ma anche i simboli polari più decisivi nell'attuale corsa alle prestazioni dei computer Web3. La differenza tra i due risiede non solo nel punto di partenza e nello stile dell'architettura tecnica, ma anche negli oggetti ecologici che servono, nel costo della migrazione, nella filosofia di esecuzione e nel futuro percorso strategico dietro di essi. Esse rappresentano una competizione paradigmatica parallela tra "ricostruzionismo" e "compatibilismo" e hanno profondamente influenzato l'immaginazione del mercato sulla forma finale delle catene ad alte prestazioni. Monad è un "fondamentalista computazionale" in tutto e per tutto, e la sua filosofia di progettazione non è progettata per essere compatibile con gli EVM esistenti, ma piuttosto per ridefinire il modo in cui i motori di esecuzione blockchain funzionano in modo inventivo, traendo ispirazione dai moderni database e dai sistemi multi-core ad alte prestazioni. Il suo sistema tecnologico di base si basa su meccanismi maturi nel campo dei database come il controllo della concorrenza ottimistica, la pianificazione DAG delle transazioni, l'esecuzione fuori ordine e l'esecuzione in pipeline, con l'obiettivo di aumentare le prestazioni di elaborazione delle transazioni della catena nell'ordine di milioni di TPS. Nell'architettura Monad, l'esecuzione e l'ordinamento delle transazioni sono completamente disaccoppiati e il sistema prima costruisce un grafico delle dipendenze delle transazioni, quindi lo passa allo scheduler per l'esecuzione parallela. Tutte le transazioni vengono trattate come unità atomiche di transazioni, con set di lettura/scrittura espliciti e snapshot dello stato, e le utilità di pianificazione vengono eseguite in modo ottimistico in base ai grafici delle dipendenze, eseguendo il rollback e la riesecuzione quando si verificano conflitti. Questo meccanismo è estremamente complesso in termini di implementazione tecnica, richiedendo la costruzione di uno stack di esecuzione simile a quello di un moderno gestore di transazioni di database, nonché l'introduzione di meccanismi come il caching multilivello, il prefetching, la validazione parallela, ecc., per comprimere la latenza del commit dello stato finale, ma può teoricamente spingere il limite di throughput ad altezze che non sono immaginate dalla catena corrente. Ancora più importante, Monad non ha rinunciato all'interoperabilità con l'EVM. Utilizza un livello intermedio simile a "Solidity-Compatible Intermediate Language" per supportare gli sviluppatori nella scrittura di contratti nella sintassi Solidity e allo stesso tempo eseguire l'ottimizzazione del linguaggio intermedio e la pianificazione della parallelizzazione nel motore di esecuzione. Questa strategia di progettazione di "compatibilità di superficie e refactoring del fondo" non solo mantiene la cordialità degli sviluppatori ecologici di Ethereum, ma libera anche il potenziale di esecuzione sottostante nella massima misura, che è una tipica strategia tecnica di "ingoiare l'EVM e poi decostruirlo". Ciò significa anche che, una volta lanciato, Monad non solo diventerà una catena sovrana con prestazioni estreme, ma anche un livello di esecuzione ideale per le reti rollup di livello 2 e persino un "core pluggable ad alte prestazioni" per altri moduli di esecuzione a catena a lungo termine. Da questo punto di vista, Monad non è solo un percorso tecnico, ma anche una nuova logica di progettazione della sovranità del sistema, che sostiene la "modularizzazione-prestazioni-riusabilità" del livello di esecuzione, così da creare un nuovo standard per il calcolo collaborativo inter-chain. A differenza della posizione di Monad "new world builder", MegaETH è un tipo di progetto completamente opposto, che sceglie di partire dal mondo esistente di Ethereum e ottenere un aumento significativo dell'efficienza di esecuzione con costi di modifica minimi. MegaETH non stravolge la specifica EVM, ma piuttosto cerca di integrare le capacità di calcolo parallelo nel motore di esecuzione degli EVM esistenti, creando una versione futura dell'"EVM multi-core". La logica risiede in un refactoring completo dell'attuale modello di esecuzione delle istruzioni EVM con funzionalità come l'isolamento a livello di thread, l'esecuzione asincrona a livello di contratto e il rilevamento dei conflitti di accesso allo stato, consentendo l'esecuzione simultanea di più contratti intelligenti nello stesso blocco e infine l'unione delle modifiche di stato. Questo modello richiede agli sviluppatori di ottenere significativi guadagni in termini di prestazioni dallo stesso contratto distribuito sulla catena MegaETH senza modificare i contratti Solidity esistenti, utilizzando nuovi linguaggi o toolchain. Questo percorso di "rivoluzione conservativa" è estremamente attraente, soprattutto per l'ecosistema Ethereum L2, in quanto fornisce un percorso ideale per aggiornamenti delle prestazioni indolori senza la necessità di migrare la sintassi. La svolta principale di MegaETH risiede nel suo meccanismo di pianificazione multi-thread VM. Gli EVM tradizionali utilizzano un modello di esecuzione stacked a thread singolo, in cui ogni istruzione viene eseguita in modo lineare e gli aggiornamenti di stato devono avvenire in modo sincrono. MegaETH rompe questo schema e introduce uno stack di chiamate asincrone e un meccanismo di isolamento del contesto di esecuzione, in modo da ottenere l'esecuzione simultanea di "contesti EVM concorrenti". Ogni contratto può richiamare la propria logica in un thread separato e tutti i thread rileveranno e convergeranno uniformemente lo stato attraverso il livello di commit parallelo quando lo stato viene infine inviato. Questo meccanismo è molto simile al modello multithreading JavaScript dei browser moderni (Web Workers + Shared Memory + Lock-Free Data), che mantiene il determinismo del comportamento del thread principale e introduce un meccanismo di pianificazione ad alte prestazioni che è asincrono in background. In pratica, questo design è anche molto amichevole per i costruttori di blocchi e i ricercatori e può ottimizzare l'ordinamento della mempool e i percorsi di cattura MEV secondo la strategia parallela, formando un ciclo chiuso di vantaggi economici sul livello di esecuzione. Ancora più importante, MegaETH sceglie di essere profondamente legato all'ecosistema Ethereum e il suo principale punto di approdo in futuro sarà probabilmente una rete EVM L2 Rollup, come Optimism, Base o Arbitrum Orbit chain. Una volta adottato su larga scala, può ottenere un miglioramento delle prestazioni di quasi 100 volte rispetto allo stack tecnologico Ethereum esistente senza modificare la semantica del contratto, il modello di stato, la logica del gas, i metodi di invocazione, ecc., il che lo rende una direzione di aggiornamento tecnologico interessante per i conservatori EVM. Il paradigma di MegaETH è: finché stai ancora facendo cose su Ethereum, allora lascerò che le tue prestazioni di calcolo salgano alle stelle. Dal punto di vista del realismo e dell'ingegneria, è più facile da implementare rispetto a Monad, ed è più in linea con il percorso iterativo dei principali progetti DeFi e NFT, il che lo rende un candidato che ha maggiori probabilità di ricevere un sostegno ecologico a breve termine. In un certo senso, le due strade di Monad e MegaETH non sono solo due implementazioni di percorsi tecnologici paralleli, ma anche un classico confronto tra "refactoring" e "compatibilità" nel percorso di sviluppo della blockchain: la prima persegue una svolta di paradigma e ricostruisce tutta la logica dalle macchine virtuali alla gestione dello stato sottostante per ottenere prestazioni e plasticità architetturale definitive; Quest'ultimo persegue l'ottimizzazione incrementale, spingendo al limite i sistemi tradizionali nel rispetto dei vincoli ecologici esistenti, minimizzando così i costi di migrazione. Non ci sono vantaggi o svantaggi assoluti tra i due, ma servono diversi gruppi di sviluppatori e visioni dell'ecosistema. Monad è più adatto per la creazione di nuovi sistemi da zero, giochi a catena che perseguono un throughput estremo, agenti di intelligenza artificiale e catene di esecuzione modulari. MegaETH, d'altra parte, è più adatto per progetti L2, progetti DeFi e protocolli infrastrutturali che vogliono ottenere aggiornamenti delle prestazioni con modifiche di sviluppo minime. Sono come treni ad alta velocità su un nuovo binario, ridefiniti dal binario, dalla rete elettrica alla carrozzeria dell'auto, solo per raggiungere una velocità e un'esperienza senza precedenti; Un altro esempio è l'installazione di turbine sulle autostrade esistenti, il miglioramento della programmazione delle corsie e della struttura del motore, consentendo ai veicoli di andare più veloci senza lasciare la rete stradale familiare. Le due cose potrebbero finire allo stesso modo: nella prossima fase delle architetture blockchain modulari, Monad potrebbe diventare un modulo "execution-as-a-service" per i Rollup, e MegaETH potrebbe diventare un plugin di accelerazione delle prestazioni per i L2 mainstream. I due potrebbero eventualmente convergere per formare le due ali del motore di esecuzione distribuita ad alte prestazioni nel futuro mondo Web3. 5. Opportunità e sfide future del calcolo parallelo Man mano che il calcolo parallelo passa dalla progettazione cartacea all'implementazione on-chain, il potenziale che sblocca sta diventando più concreto e misurabile. Da un lato, vediamo che nuovi paradigmi di sviluppo e modelli di business hanno iniziato a ridefinire le "prestazioni on-chain": logiche di gioco a catena più complesse, ciclo di vita degli agenti AI più realistico, protocolli di scambio dati più in tempo reale, esperienze interattive più immersive e persino sistemi operativi Super App collaborativi on-chain stanno tutti cambiando da "possiamo farlo" a "quanto può essere buono". D'altra parte, ciò che guida davvero la transizione al calcolo parallelo non è solo il miglioramento lineare delle prestazioni del sistema, ma anche il cambiamento strutturale dei confini cognitivi degli sviluppatori e dei costi di migrazione ecologica. Così come l'introduzione del meccanismo di contratto Turing-complete da parte di Ethereum ha dato vita all'esplosione multidimensionale di DeFi, NFT e DAO, la "ricostruzione asincrona tra stato e istruzioni" portata avanti dal calcolo parallelo sta anche dando vita a un nuovo modello di mondo on-chain, che non è solo una rivoluzione nell'efficienza di esecuzione, ma anche un focolaio di innovazione nella fissione nella struttura del prodotto. Innanzitutto, dal punto di vista delle opportunità, il vantaggio più diretto è l'"innalzamento del tetto delle candidature". La maggior parte delle attuali applicazioni DeFi, di gioco e social sono limitate da colli di bottiglia statali, costi del gas e latenza e non possono realmente trasportare interazioni ad alta frequenza sulla catena su larga scala. Prendendo come esempio i giochi a catena, il GameFi con feedback di movimento reale, sincronizzazione del comportamento ad alta frequenza e logica di combattimento in tempo reale quasi non esiste, perché l'esecuzione lineare degli EVM tradizionali non può supportare la conferma della trasmissione di dozzine di cambiamenti di stato al secondo. Con il supporto del calcolo parallelo, attraverso meccanismi come i DAG transazionali e i contesti asincroni a livello di contratto, è possibile costruire catene ad alta concorrenza e garantire risultati di esecuzione deterministici attraverso la coerenza degli snapshot, in modo da ottenere una svolta strutturale nel "motore di gioco on-chain". Analogamente, anche l'implementazione e il funzionamento degli agenti di IA saranno notevolmente migliorati dal calcolo parallelo. In passato, tendevamo a eseguire gli agenti di intelligenza artificiale off-chain e a caricare i risultati del loro comportamento solo su contratti on-chain, ma in futuro l'on-chain può supportare la collaborazione asincrona e la condivisione dello stato tra più entità di intelligenza artificiale attraverso la pianificazione parallela delle transazioni, in modo da realizzare veramente la logica autonoma in tempo reale dell'agente on-chain. Il calcolo parallelo sarà l'infrastruttura per questo "contratto guidato dal comportamento", guidando il Web3 da una "transazione come risorsa" a un nuovo mondo di "interazione come agente". In secondo luogo, anche la toolchain di sviluppo e il livello di astrazione della macchina virtuale sono stati rimodellati strutturalmente a causa della parallelizzazione. Il tradizionale paradigma di sviluppo di Solidity si basa su un modello di pensiero seriale, in cui gli sviluppatori sono abituati a progettare la logica come un cambiamento di stato a thread singolo, ma nelle architetture di calcolo parallelo, gli sviluppatori saranno costretti a pensare ai conflitti di set di lettura/scrittura, alle politiche di isolamento dello stato, all'atomicità delle transazioni e persino a introdurre modelli architettonici basati su code di messaggi o pipeline di stato. Questo salto nella struttura cognitiva ha anche dato vita alla rapida ascesa di una nuova generazione di catene di strumenti. Ad esempio, i framework di smart contract paralleli che supportano le dichiarazioni di dipendenza transazionale, i compilatori di ottimizzazione basati su IR e i debugger concorrenti che supportano la simulazione di snapshot delle transazioni diventeranno tutti focolai di esplosioni dell'infrastruttura nel nuovo ciclo. Allo stesso tempo, la continua evoluzione delle blockchain modulari ha portato anche un eccellente percorso di atterraggio per il calcolo parallelo: Monad può essere inserito in L2 Rollup come modulo di esecuzione, MegaETH può essere implementato come sostituto EVM per le catene mainstream, Celestia fornisce il supporto del livello di disponibilità dei dati e EigenLayer fornisce una rete di validatori decentralizzata, formando così un'architettura integrata ad alte prestazioni dai dati sottostanti alla logica di esecuzione. Tuttavia, l'avanzamento del calcolo parallelo non è una strada facile e le sfide sono ancora più strutturali e difficili da rosicchiare rispetto alle opportunità. Da un lato, le principali difficoltà tecniche risiedono nella "garanzia di coerenza della concorrenza statale" e nella "strategia di gestione dei conflitti di transazione". A differenza dei database off-chain, l'on-chain non può tollerare un grado arbitrario di rollback delle transazioni o di retrazione dello stato, ed eventuali conflitti di esecuzione devono essere modellati in anticipo o controllati con precisione durante l'evento. Ciò significa che l'utilità di pianificazione parallela deve disporre di forti funzionalità di costruzione del grafico delle dipendenze e di previsione dei conflitti e allo stesso tempo progettare un meccanismo di tolleranza agli errori di esecuzione ottimistico efficiente, altrimenti il sistema è soggetto a "tempesta di tentativi di errore simultaneo" in condizioni di carico elevato, che non solo aumenta ma diminuisce e causa persino l'instabilità della catena. Inoltre, l'attuale modello di sicurezza dell'ambiente di esecuzione multi-thread non è ancora stato completamente stabilito, come la precisione del meccanismo di isolamento dello stato tra i thread, il nuovo utilizzo di attacchi di re-entrancy in contesti asincroni e l'esplosione di gas di chiamate di contratto cross-threaded, che sono tutti nuovi problemi che devono essere risolti. Le sfide più insidiose derivano da aspetti ecologici e psicologici. Se gli sviluppatori sono disposti a migrare verso il nuovo paradigma, se sono in grado di padroneggiare i metodi di progettazione dei modelli paralleli e se sono disposti a rinunciare ad una certa leggibilità e verificabilità contrattuale per ottenere vantaggi in termini di prestazioni sono la chiave per stabilire se il calcolo parallelo può formare energia potenziale ecologica. Negli ultimi anni, abbiamo visto un certo numero di catene con prestazioni superiori ma prive di supporto per gli sviluppatori cadere gradualmente in silenzio, come NEAR, Avalanche e persino alcune catene Cosmos SDK che superano di gran lunga l'EVM, e la loro esperienza ci ricorda che senza sviluppatori non c'è ecosistema; Senza ecologia, non importa quanto siano buone le prestazioni, è solo un castello in aria. Pertanto, i progetti di calcolo parallelo non dovrebbero solo realizzare il motore più potente, ma anche realizzare il percorso di transizione ecologica più delicato, in modo che "le prestazioni siano il pronto all'uso" piuttosto che "le prestazioni siano la soglia cognitiva". In definitiva, il futuro del calcolo parallelo è sia un trionfo per l'ingegneria dei sistemi che un test per l'eco-design. Ci costringerà a riesaminare "qual è l'essenza della catena": è una macchina di regolamento decentralizzata o un orchestratore statale in tempo reale distribuito a livello globale? In quest'ultimo caso, le capacità di throughput statale, concorrenza delle transazioni e reattività ai contratti, che in precedenza erano considerate "dettagli tecnici della catena", diventeranno alla fine gli indicatori primari che definiscono il valore della catena. Il paradigma di calcolo parallelo che completerà veramente questa transizione diventerà anche la primitiva dell'infrastruttura più core e più composta in questo nuovo ciclo, e il suo impatto andrà ben oltre un modulo tecnico e potrebbe costituire un punto di svolta nel paradigma di calcolo complessivo del Web3. 6. Conclusione: il calcolo parallelo è il percorso migliore per la scalabilità nativa Web3? Di tutti i percorsi che esplorano i confini delle prestazioni Web3, il calcolo parallelo non è il più facile da implementare, ma potrebbe essere il più vicino all'essenza della blockchain. Non migra off-chain, né sacrifica la decentralizzazione in cambio del throughput, ma cerca di ricostruire il modello di esecuzione stesso nell'atomicità e nel determinismo della catena, dal livello di transazione, dal livello di contratto e dal livello di macchina virtuale alla radice del collo di bottiglia delle prestazioni. Questo metodo di scalabilità "nativo della catena" non solo mantiene il modello di fiducia di base della blockchain, ma riserva anche un terreno di prestazioni sostenibili per applicazioni on-chain più complesse in futuro. La sua difficoltà sta nella struttura, e il suo fascino sta nella struttura. Se il refactoring modulare è l'"architettura della catena", allora il refactoring del calcolo parallelo è "l'anima della catena". Questa potrebbe non essere una scorciatoia per lo sdoganamento, ma è probabile che sia l'unica soluzione positiva sostenibile nell'evoluzione a lungo termine del Web3. Stiamo assistendo a una transizione architetturale da CPU single-core a sistemi operativi multi-core/threaded e l'aspetto di sistemi operativi nativi Web3 potrebbe essere nascosto in questi esperimenti paralleli in-chain.
Mostra originale
124.521
1
TechFlow
TechFlow
1. Introduzione: L'espansione è una proposta eterna e il parallelismo è il campo di battaglia definitivo Sin dalla nascita di Bitcoin, il sistema blockchain ha sempre affrontato un problema fondamentale ineludibile: la scalabilità. Bitcoin elabora meno di 10 transazioni al secondo, ed Ethereum fatica a superare il collo di bottiglia delle prestazioni di decine di TPS (transazioni al secondo), che è particolarmente ingombrante nel mondo tradizionale del Web2, che spesso è di decine di migliaia di TPS. Ancora più importante, questo non è un semplice problema che può essere risolto "aggiungendo server", ma una limitazione sistemica profondamente radicata nel consenso sottostante e nel design strutturale della blockchain, ovvero il triangolo impossibile della blockchain in cui "decentralizzazione, sicurezza e scalabilità" non possono essere combinate. Nell'ultimo decennio, abbiamo assistito a innumerevoli tentativi di espansione in ascesa e in diminuzione. Dalla guerra di scalabilità di Bitcoin alla visione dello sharding di Ethereum, dai canali di stato e plasma ai rollup e alle blockchain modulari, dall'esecuzione off-chain in Layer 2 al refactoring strutturale della disponibilità dei dati, l'intero settore ha intrapreso un percorso di scalabilità pieno di immaginazione ingegneristica. Come paradigma di scalabilità più ampiamente accettato, il rollup ha raggiunto l'obiettivo di aumentare significativamente il TPS, riducendo al contempo l'onere di esecuzione della catena principale e preservando la sicurezza di Ethereum. Ma non tocca i limiti reali delle "prestazioni single-chain" sottostanti alla blockchain, soprattutto a livello di esecuzione, che è il throughput del blocco stesso – è ancora limitato dall'antico paradigma di elaborazione del calcolo seriale on-chain. Per questo motivo, il calcolo parallelo in-chain è entrato gradualmente nel campo visivo del settore. A differenza della scalabilità off-chain e della distribuzione cross-chain, il parallelismo intra-chain tenta di ricostruire completamente il motore di esecuzione mantenendo l'atomicità e la struttura integrata di una singola catena, e aggiorna la blockchain da una modalità single-thread di "esecuzione seriale di una transazione per una" a un sistema di calcolo ad alta concorrenza di "multi-threading + pipeline + pianificazione delle dipendenze" sotto la guida del moderno sistema operativo e della progettazione della CPU. Un tale percorso potrebbe non solo ottenere un aumento di cento volte del throughput, ma potrebbe anche diventare un prerequisito chiave per l'esplosione delle applicazioni di smart contract. Infatti, nel paradigma del Web2 computing, il single-threaded computing è stato da tempo eliminato dalle moderne architetture hardware e sostituito da un flusso infinito di modelli di ottimizzazione come la programmazione parallela, la pianificazione asincrona, i pool di thread e i microservizi. La blockchain, in quanto sistema di calcolo più primitivo e conservativo con requisiti estremamente elevati di certezza e verificabilità, non è mai stata in grado di sfruttare appieno queste idee di calcolo parallelo. Questo è sia un limite che un'opportunità. Nuove catene come Solana, Sui e Aptos sono le prime ad avviare questa esplorazione introducendo il parallelismo a livello architettonico. Progetti emergenti come Monad e MegaETH hanno ulteriormente elevato il parallelismo on-chain a scoperte in meccanismi profondi come l'esecuzione delle pipeline, la concorrenza ottimistica e l'asincrono message-driven, mostrando caratteristiche che si stanno avvicinando sempre di più ai moderni sistemi operativi. Si può dire che il calcolo parallelo non è solo un "metodo di ottimizzazione delle prestazioni", ma anche un punto di svolta nel paradigma del modello di esecuzione blockchain. Sfida i modelli fondamentali dell'esecuzione degli smart contract e ridefinisce la logica di base del packaging delle transazioni, dell'accesso allo stato, delle relazioni di chiamata e del layout di archiviazione. Se il rollup consiste nel "spostare le transazioni nell'esecuzione off-chain", il parallelismo on-chain consiste nel "costruire core di supercalcolo on-chain" e il suo obiettivo non è semplicemente migliorare il throughput, ma fornire un supporto infrastrutturale veramente sostenibile per le future applicazioni native del Web3 (trading ad alta frequenza, motori di gioco, esecuzione di modelli AI, social on-chain, ecc.). Dopo che il percorso di rollup tende gradualmente ad essere omogeneo, il parallelismo intra-chain sta silenziosamente diventando la variabile decisiva del nuovo ciclo di competizione Layer 1. Le prestazioni non sono più solo "più veloci", ma la possibilità di poter supportare un intero mondo applicativo eterogeneo. Questa non è solo una gara tecnica, ma anche una battaglia di paradigma. È probabile che la prossima generazione di piattaforme di esecuzione sovrana nel mondo Web3 emerga da questo wrestling parallelo intra-chain. 2. Panorama del paradigma di espansione: cinque tipi di percorsi, ognuno con la propria enfasi L'espansione della capacità, come uno dei temi più importanti, sostenuti e difficili nell'evoluzione della tecnologia della catena pubblica, ha dato vita all'emergere e all'evoluzione di quasi tutti i percorsi tecnologici mainstream nell'ultimo decennio. Partendo dalla battaglia sulla dimensione del blocco di Bitcoin, questa competizione tecnica su "come far correre la catena più veloce" si è infine divisa in cinque percorsi di base, ognuno dei quali taglia il collo di bottiglia da un'angolazione diversa, con la propria filosofia tecnica, difficoltà di atterraggio, modello di rischio e scenari applicabili. Il primo percorso è il ridimensionamento on-chain più semplice, che significa aumentare la dimensione del blocco, accorciare il tempo di blocco o migliorare la potenza di elaborazione ottimizzando la struttura dei dati e il meccanismo di consenso. Questo approccio è stato al centro del dibattito sulla scalabilità di Bitcoin, dando origine a fork "big block" come BCH e BSV, e influenzando anche le idee di design delle prime catene pubbliche ad alte prestazioni come EOS e NEO. Il vantaggio di questo tipo di percorso è che mantiene la semplicità della coerenza a catena singola, che è facile da capire e implementare, ma è anche molto facile toccare il limite superiore sistemico come il rischio di centralizzazione, l'aumento dei costi operativi dei nodi e l'aumento della difficoltà di sincronizzazione, quindi non è più la soluzione principale nella progettazione odierna, ma è diventata più una collocazione ausiliaria di altri meccanismi. Il secondo tipo di route è il ridimensionamento off-chain, che è rappresentato da canali di stato e sidechain. L'idea di base di questo tipo di percorso è quella di spostare la maggior parte dell'attività di transazione off-chain e scrivere solo il risultato finale nella catena principale, che funge da livello di regolamento finale. In termini di filosofia tecnica, è vicino all'architettura asincrona del Web2: prova a lasciare l'elaborazione delle transazioni pesante alla periferia e la catena principale esegue una verifica affidabile minima. Sebbene questa idea possa teoricamente essere scalabile all'infinito, il modello di fiducia, la sicurezza dei fondi e la complessità di interazione delle transazioni off-chain ne limitano l'applicazione. Ad esempio, sebbene Lightning Network abbia un chiaro posizionamento degli scenari finanziari, la scala dell'ecosistema non è mai esplosa. Tuttavia, più progetti basati su sidechain, come Polygon POS, non solo hanno un throughput elevato, ma espongono anche gli svantaggi della difficile ereditarietà della sicurezza della catena principale. Il terzo tipo di route è la route rollup di livello 2 più diffusa e distribuita. Questo metodo non modifica direttamente la catena principale stessa, ma scala attraverso il meccanismo di esecuzione off-chain e verifica on-chain. L'Optimistic Rollup e lo ZK Rollup hanno i loro vantaggi: il primo è veloce da implementare e altamente compatibile, ma presenta i problemi del ritardo del periodo di sfida e del meccanismo a prova di frode; Quest'ultimo ha una forte sicurezza e buone capacità di compressione dei dati, ma è complesso da sviluppare e manca di compatibilità EVM. Indipendentemente dal tipo di rollup, la sua essenza è quella di esternalizzare la potenza di esecuzione, mantenendo i dati e la verifica sulla catena principale, raggiungendo un relativo equilibrio tra decentralizzazione e prestazioni elevate. La rapida crescita di progetti come Arbitrum, Optimism, zkSync e StarkNet dimostra la fattibilità di questo percorso, ma mette anche in luce colli di bottiglia a medio termine come l'eccessiva dipendenza dalla disponibilità dei dati (DA), i costi elevati e l'esperienza di sviluppo frammentata. Il quarto tipo di percorso è l'architettura blockchain modulare che è emersa negli ultimi anni, come Celestia, Avail, EigenLayer, ecc. Il paradigma modulare sostiene il completo disaccoppiamento delle funzioni principali della blockchain - esecuzione, consenso, disponibilità dei dati e regolamento - da parte di più catene specializzate per completare diverse funzioni, e quindi combinarle in una rete scalabile con un protocollo cross-chain. Questa direzione è fortemente influenzata dall'architettura modulare del sistema operativo e dal concetto di componibilità del cloud computing, che ha il vantaggio di poter sostituire in modo flessibile i componenti del sistema e migliorare notevolmente l'efficienza in ambiti specifici come la DA. Tuttavia, le sfide sono anche molto evidenti: il costo della sincronizzazione, della verifica e della fiducia reciproca tra i sistemi dopo il disaccoppiamento dei moduli è estremamente elevato, l'ecosistema degli sviluppatori è estremamente frammentato e i requisiti per gli standard di protocollo a medio e lungo termine e la sicurezza cross-chain sono molto più elevati rispetto a quelli della progettazione tradizionale della catena. In sostanza, questo modello non costruisce più una "catena", ma una "rete a catena", che propone una soglia senza precedenti per la comprensione dell'architettura complessiva, il funzionamento e la manutenzione. L'ultimo tipo di percorso, che è il fulcro della successiva analisi in questo articolo, è il percorso di ottimizzazione del calcolo parallelo intra-chain. A differenza dei primi quattro tipi di "scissione orizzontale", che effettuano principalmente la "scissione orizzontale" dal livello strutturale, il calcolo parallelo enfatizza l'"upgrading verticale", ovvero l'elaborazione simultanea delle transazioni atomiche viene realizzata modificando l'architettura del motore di esecuzione all'interno di una singola catena. Ciò richiede la riscrittura della logica di pianificazione delle macchine virtuali e l'introduzione di un set completo di meccanismi di pianificazione dei sistemi informatici moderni, ad esempio l'analisi delle dipendenze delle transazioni, la previsione dei conflitti di stato, il controllo del parallelismo e la chiamata asincrona. Solana è il primo progetto a implementare il concetto di VM parallela in un sistema a livello di catena, che realizza l'esecuzione parallela multi-core attraverso il giudizio dei conflitti di transazione basato sul modello di account. La nuova generazione di progetti, come Monad, Sei, Fuel, MegaETH, ecc., cerca inoltre di introdurre idee all'avanguardia come l'esecuzione della pipeline, la concorrenza ottimistica, il partizionamento dello storage e il disaccoppiamento parallelo per costruire core di esecuzione ad alte prestazioni simili alle moderne CPU. Il vantaggio principale di questa direzione è che non ha bisogno di fare affidamento sull'architettura multi-chain per ottenere una svolta nel limite di throughput e allo stesso tempo fornisce una flessibilità di calcolo sufficiente per l'esecuzione di contratti intelligenti complessi, che è un importante prerequisito tecnico per futuri scenari applicativi come AI Agent, giochi a catena su larga scala e derivati ad alta frequenza. Guardando i cinque tipi di percorsi di scalabilità di cui sopra, la divisione dietro di essi è in realtà il compromesso sistematico tra prestazioni, componibilità, sicurezza e complessità di sviluppo della blockchain. Il rollup è forte nell'outsourcing del consenso e nell'ereditarietà sicura, la modularità evidenzia la flessibilità strutturale e il riutilizzo dei componenti, lo scaling off-chain tenta di sfondare il collo di bottiglia della catena principale ma il costo di fiducia è elevato e il parallelismo intra-chain si concentra sull'aggiornamento fondamentale del livello di esecuzione, cercando di avvicinarsi al limite di prestazioni dei moderni sistemi distribuiti senza distruggere la coerenza della catena. È impossibile che ogni percorso risolva tutti i problemi, ma sono queste direzioni che insieme formano un panorama dell'aggiornamento del paradigma di calcolo Web3 e forniscono anche a sviluppatori, architetti e investitori opzioni strategiche estremamente ricche. Proprio come il sistema operativo è passato da single-core a multi-core e i database si sono evoluti da indici sequenziali a transazioni simultanee, l'espansione del Web3 finirà per spostarsi verso un'era di esecuzione altamente parallela. In quest'epoca, le prestazioni non sono più solo una corsa alla velocità a catena, ma un'incarnazione completa della filosofia di progettazione sottostante, della profonda comprensione dell'architettura, della collaborazione software e hardware e del controllo del sistema. E il parallelismo intra-chain potrebbe essere il campo di battaglia finale di questa guerra a lungo termine. 3. Grafico di classificazione del calcolo parallelo: cinque percorsi dall'account all'istruzione Nel contesto della continua evoluzione della tecnologia di scalabilità blockchain, il calcolo parallelo è diventato gradualmente il percorso principale per le scoperte in termini di prestazioni. A differenza del disaccoppiamento orizzontale del livello della struttura, del livello di rete o del livello di disponibilità dei dati, il calcolo parallelo è un mining profondo a livello di esecuzione, che è correlato alla logica più bassa dell'efficienza operativa della blockchain e determina la velocità di risposta e la capacità di elaborazione di un sistema blockchain a fronte di un'elevata concorrenza e di transazioni complesse di tipo multiplo. Partendo dal modello di esecuzione e rivedendo lo sviluppo di questa linea tecnologica, possiamo ordinare una chiara mappa di classificazione del calcolo parallelo, che può essere approssimativamente suddivisa in cinque percorsi tecnici: parallelismo a livello di account, parallelismo a livello di oggetto, parallelismo a livello di transazione, parallelismo a livello di macchina virtuale e parallelismo a livello di istruzione. Questi cinque tipi di percorsi, da quelli a grana grossa a quelli a grana fine, non sono solo il processo di raffinamento continuo della logica parallela, ma anche il percorso di crescente complessità del sistema e difficoltà di programmazione. Il primo parallelismo a livello di account è il paradigma rappresentato da Solana. Questo modello si basa sulla progettazione del disaccoppiamento di conto e stato e determina se esiste una relazione conflittuale analizzando staticamente l'insieme di conti coinvolti nella transazione. Se due transazioni accedono a un insieme di conti che non si sovrappongono tra loro, possono essere eseguite contemporaneamente su più core. Questo meccanismo è ideale per gestire transazioni ben strutturate con input e output chiari, soprattutto per programmi con percorsi prevedibili come la DeFi. Tuttavia, il suo presupposto naturale è che l'accesso all'account sia prevedibile e che la dipendenza dallo stato possa essere dedotta staticamente, il che lo rende incline a un'esecuzione conservativa e a un parallelismo ridotto di fronte a contratti intelligenti complessi (come comportamenti dinamici come giochi a catena e agenti di intelligenza artificiale). Inoltre, la dipendenza incrociata tra i conti rende anche i rendimenti paralleli gravemente indeboliti in alcuni scenari di trading ad alta frequenza. Il runtime di Solana è altamente ottimizzato in questo senso, ma la sua strategia di pianificazione di base è ancora limitata dalla granularità dell'account. Sulla base del modello di conto, entriamo nel livello tecnico del parallelismo a livello di oggetto. Il parallelismo a livello di oggetto introduce l'astrazione semantica di risorse e moduli, con la pianificazione simultanea in unità più dettagliate di "oggetti di stato". Aptos e Sui sono importanti esploratori in questa direzione, in particolare quest'ultimo, che definisce la proprietà e la variabilità delle risorse in fase di compilazione attraverso il sistema di tipi lineari del linguaggio Move, consentendo al runtime di controllare con precisione i conflitti di accesso alle risorse. Rispetto al parallelismo a livello di account, questo metodo è più versatile e scalabile, può coprire una logica di lettura e scrittura di stato più complessa e serve naturalmente scenari altamente eterogenei come giochi, social network e intelligenza artificiale. Tuttavia, il parallelismo a livello di oggetto introduce anche barriere linguistiche più elevate e complessità di sviluppo, e Move non è un sostituto diretto di Solidity, e l'alto costo della commutazione ecologica limita la popolarità del suo paradigma parallelo. Un ulteriore parallelismo a livello di transazione è la direzione esplorata dalla nuova generazione di catene ad alte prestazioni rappresentata da Monad, Sei e Fuel. Invece di considerare gli stati o i conti come l'unità di parallelismo più piccola, il percorso viene costruito attorno a un grafico delle dipendenze intorno all'intera transazione stessa. Considera le transazioni come unità operative atomiche, crea grafici delle transazioni (DAG di transazione) tramite analisi statica o dinamica e si basa su pianificatori per l'esecuzione simultanea del flusso. Questo design consente al sistema di massimizzare il parallelismo del mining senza dover comprendere appieno la struttura di stato sottostante. Monad è particolarmente accattivante, in quanto combina le moderne tecnologie dei motori di database come il controllo della concorrenza ottimistica (OCC), la pianificazione parallela delle pipeline e l'esecuzione fuori ordine, avvicinando l'esecuzione a catena al paradigma dello "scheduler GPU". In pratica, questo meccanismo richiede gestori delle dipendenze e rilevatori di conflitti estremamente complessi, e lo scheduler stesso può anche diventare un collo di bottiglia, ma la sua capacità di throughput potenziale è molto più alta di quella dell'account o del modello a oggetti, rendendolo la forza più teorica nell'attuale percorso di calcolo parallelo. Il parallelismo a livello di macchina virtuale, d'altra parte, incorpora le funzionalità di esecuzione simultanea direttamente nella logica di pianificazione delle istruzioni sottostante della VM, cercando di superare completamente le limitazioni intrinseche dell'esecuzione della sequenza EVM. Come "esperimento di super macchina virtuale" all'interno dell'ecosistema Ethereum, MegaETH sta cercando di riprogettare l'EVM per supportare l'esecuzione simultanea multi-thread del codice dello smart contract. Il livello sottostante consente l'esecuzione indipendente di ogni contratto in contesti di esecuzione diversi attraverso meccanismi quali l'esecuzione segmentata, la segmentazione dello stato e la chiamata asincrona e garantisce la coerenza finale con l'aiuto di un livello di sincronizzazione parallela. La parte più difficile di questo approccio è che deve essere pienamente compatibile con la semantica del comportamento EVM esistente e allo stesso tempo trasformare l'intero ambiente di esecuzione e il meccanismo del gas per migrare senza problemi l'ecosistema Solidity in un framework parallelo. La sfida non è solo la profondità dello stack tecnologico, ma anche l'accettazione di modifiche significative al protocollo della struttura politica L1 di Ethereum. Ma in caso di successo, MegaETH promette di essere una "rivoluzione dei processori multi-core" nello spazio EVM. L'ultimo tipo di percorso è il parallelismo a livello di istruzione, che è il più dettagliato e ha la soglia tecnica più alta. L'idea deriva dall'esecuzione e dalle pipeline di istruzioni fuori ordine della moderna progettazione delle CPU. Questo paradigma sostiene che, poiché ogni smart contract viene infine compilato in istruzioni bytecode, è del tutto possibile pianificare e analizzare ogni operazione e riorganizzarla in parallelo nello stesso modo in cui una CPU esegue un set di istruzioni x86. Il team di Fuel ha inizialmente introdotto un modello di esecuzione riordinabile a livello di istruzione nella sua FuelVM e, a lungo termine, una volta che il motore di esecuzione blockchain implementerà l'esecuzione predittiva e la riorganizzazione dinamica dei dipendenti dalle istruzioni, il suo parallelismo raggiungerà il limite teorico. Questo approccio potrebbe persino portare la co-progettazione blockchain-hardware a un livello completamente nuovo, rendendo la catena un vero e proprio "computer decentralizzato" piuttosto che un semplice "libro mastro distribuito". Naturalmente, questo percorso è ancora in fase teorica e sperimentale, e i relativi scheduler e meccanismi di verifica della sicurezza non sono ancora maturi, ma punta al confine ultimo del futuro del calcolo parallelo. In sintesi, i cinque percorsi di account, object, transaction, VM e instruction costituiscono lo spettro di sviluppo del calcolo parallelo intra-chain, dalla struttura statica dei dati al meccanismo di pianificazione dinamica, dalla previsione dell'accesso allo stato al riarrangiamento a livello di istruzione, ogni fase della tecnologia parallela significa un aumento significativo della complessità del sistema e della soglia di sviluppo. Ma allo stesso tempo, segnano anche un cambiamento di paradigma nel modello di calcolo della blockchain, dal tradizionale registro di consenso a sequenza completa a un ambiente di esecuzione distribuito ad alte prestazioni, prevedibile e dispacciabile. Questo non è solo un recupero dell'efficienza del cloud computing Web2, ma anche una profonda concezione della forma definitiva di "computer blockchain". La selezione di percorsi paralleli per diverse catene pubbliche determinerà anche il limite di portatore dei loro futuri ecosistemi applicativi, nonché la loro competitività di base in scenari come l'agente AI, i giochi a catena e il trading ad alta frequenza on-chain. In quarto luogo, vengono spiegati i due percorsi principali: Monad vs MegaETH Tra i molteplici percorsi di evoluzione del calcolo parallelo, i due principali percorsi tecnici con il maggior focus, la voce più alta e la narrazione più completa nel mercato attuale sono senza dubbio la "costruzione di una catena di calcolo parallelo da zero" rappresentata da Monad e la "rivoluzione parallela all'interno dell'EVM" rappresentata da MegaETH. Queste due direzioni non sono solo le direzioni di ricerca e sviluppo più intense per gli attuali ingegneri primitivi crittografici, ma anche i simboli polari più decisivi nell'attuale corsa alle prestazioni dei computer Web3. La differenza tra i due risiede non solo nel punto di partenza e nello stile dell'architettura tecnica, ma anche negli oggetti ecologici che servono, nel costo della migrazione, nella filosofia di esecuzione e nel futuro percorso strategico dietro di essi. Esse rappresentano una competizione paradigmatica parallela tra "ricostruzionismo" e "compatibilismo" e hanno profondamente influenzato l'immaginazione del mercato sulla forma finale delle catene ad alte prestazioni. Monad è un "fondamentalista computazionale" in tutto e per tutto, e la sua filosofia di progettazione non è progettata per essere compatibile con gli EVM esistenti, ma piuttosto per ridefinire il modo in cui i motori di esecuzione blockchain funzionano sotto il cofano, traendo ispirazione dai moderni database e dai sistemi multi-core ad alte prestazioni. Il suo sistema tecnologico di base si basa su meccanismi maturi nel campo dei database come il controllo della concorrenza ottimistica, la pianificazione DAG delle transazioni, l'esecuzione fuori ordine e l'esecuzione in pipeline, con l'obiettivo di aumentare le prestazioni di elaborazione delle transazioni della catena nell'ordine di milioni di TPS. Nell'architettura Monad, l'esecuzione e l'ordinamento delle transazioni sono completamente disaccoppiati e il sistema prima costruisce un grafico delle dipendenze delle transazioni, quindi lo passa allo scheduler per l'esecuzione parallela. Tutte le transazioni vengono trattate come unità atomiche di transazioni, con set di lettura/scrittura espliciti e snapshot dello stato, e le utilità di pianificazione vengono eseguite in modo ottimistico in base ai grafici delle dipendenze, eseguendo il rollback e la riesecuzione quando si verificano conflitti. Questo meccanismo è estremamente complesso in termini di implementazione tecnica, richiedendo la costruzione di uno stack di esecuzione simile a quello di un moderno gestore di transazioni di database, nonché l'introduzione di meccanismi come il caching multilivello, il prefetching, la validazione parallela, ecc., per comprimere la latenza del commit dello stato finale, ma può teoricamente spingere il limite di throughput ad altezze che non sono immaginate dalla catena corrente. Ancora più importante, Monad non ha rinunciato all'interoperabilità con l'EVM. Utilizza un livello intermedio simile a "Solidity-Compatible Intermediate Language" per supportare gli sviluppatori nella scrittura di contratti nella sintassi Solidity e allo stesso tempo eseguire l'ottimizzazione del linguaggio intermedio e la pianificazione della parallelizzazione nel motore di esecuzione. Questa strategia di progettazione di "compatibilità di superficie e refactoring del fondo" non solo mantiene la cordialità degli sviluppatori ecologici di Ethereum, ma libera anche il potenziale di esecuzione sottostante nella massima misura, che è una tipica strategia tecnica di "ingoiare l'EVM e poi decostruirlo". Ciò significa anche che, una volta lanciato, Monad non solo diventerà una catena sovrana con prestazioni estreme, ma anche un livello di esecuzione ideale per le reti rollup di livello 2 e persino un "core pluggable ad alte prestazioni" per altri moduli di esecuzione a catena a lungo termine. Da questo punto di vista, Monad non è solo un percorso tecnico, ma anche una nuova logica di progettazione della sovranità del sistema, che sostiene la "modularizzazione-prestazioni-riusabilità" del livello di esecuzione, così da creare un nuovo standard per il calcolo collaborativo inter-chain. A differenza della posizione di Monad "new world builder", MegaETH è un tipo di progetto completamente opposto, che sceglie di partire dal mondo esistente di Ethereum e ottenere un aumento significativo dell'efficienza di esecuzione con costi di modifica minimi. MegaETH non ribalta la specifica EVM, ma piuttosto cerca di integrare la potenza del calcolo parallelo nel motore di esecuzione dell'EVM esistente, creando una versione futura dell'"EVM multi-core". La logica risiede in un refactoring completo dell'attuale modello di esecuzione delle istruzioni EVM con funzionalità come l'isolamento a livello di thread, l'esecuzione asincrona a livello di contratto e il rilevamento dei conflitti di accesso allo stato, consentendo l'esecuzione simultanea di più contratti intelligenti nello stesso blocco e infine l'unione delle modifiche di stato. Questo modello richiede agli sviluppatori di ottenere significativi guadagni in termini di prestazioni dallo stesso contratto distribuito sulla catena MegaETH senza modificare i contratti Solidity esistenti, utilizzando nuovi linguaggi o toolchain. Questo percorso di "rivoluzione conservativa" è estremamente attraente, soprattutto per l'ecosistema Ethereum L2, in quanto fornisce un percorso ideale per aggiornamenti delle prestazioni indolori senza la necessità di migrare la sintassi. La svolta principale di MegaETH risiede nel suo meccanismo di pianificazione multi-thread VM. Gli EVM tradizionali utilizzano un modello di esecuzione stacked a thread singolo, in cui ogni istruzione viene eseguita in modo lineare e gli aggiornamenti di stato devono avvenire in modo sincrono. MegaETH rompe questo schema e introduce uno stack di chiamate asincrone e un meccanismo di isolamento del contesto di esecuzione, in modo da ottenere l'esecuzione simultanea di "contesti EVM concorrenti". Ogni contratto può richiamare la propria logica in un thread separato e tutti i thread rileveranno e convergeranno uniformemente lo stato attraverso il livello di commit parallelo quando lo stato viene infine inviato. Questo meccanismo è molto simile al modello multithreading JavaScript dei browser moderni (Web Workers + Shared Memory + Lock-Free Data), che mantiene il determinismo del comportamento del thread principale e introduce un meccanismo di pianificazione ad alte prestazioni che è asincrono in background. In pratica, questo design è anche estremamente amichevole per i costruttori di blocchi e i ricercatori e può ottimizzare l'ordinamento Mempool e i percorsi di cattura MEV secondo strategie parallele, formando un ciclo chiuso di vantaggi economici a livello di esecuzione. Ancora più importante, MegaETH sceglie di essere profondamente legato all'ecosistema Ethereum e il suo principale punto di approdo in futuro sarà probabilmente una rete EVM L2 Rollup, come Optimism, Base o Arbitrum Orbit chain. Una volta adottato su larga scala, può ottenere un miglioramento delle prestazioni di quasi 100 volte superiore allo stack tecnologico Ethereum esistente senza modificare la semantica dei contratti, il modello di stato, la logica del gas, i metodi di invocazione, ecc., il che lo rende una direzione di aggiornamento tecnologico interessante per i conservatori EVM. Il paradigma di MegaETH è: finché stai ancora facendo cose su Ethereum, allora lascerò che le tue prestazioni di calcolo salgano alle stelle. Dal punto di vista del realismo e dell'ingegneria, è più facile da implementare rispetto a Monad, ed è più in linea con il percorso iterativo dei principali progetti DeFi e NFT, il che lo rende un candidato per il supporto ecologico a breve termine. In un certo senso, le due strade di Monad e MegaETH non sono solo due implementazioni di percorsi tecnologici paralleli, ma anche un classico confronto tra "refactoring" e "compatibilità" nel percorso di sviluppo della blockchain: la prima persegue una svolta di paradigma e ricostruisce tutta la logica dalle macchine virtuali alla gestione dello stato sottostante per ottenere prestazioni e plasticità architetturale definitive; Quest'ultimo persegue l'ottimizzazione incrementale, spingendo al limite i sistemi tradizionali nel rispetto dei vincoli ecologici esistenti, minimizzando così i costi di migrazione. Non ci sono vantaggi o svantaggi assoluti tra i due, ma servono diversi gruppi di sviluppatori e visioni dell'ecosistema. Monad è più adatto per la creazione di nuovi sistemi da zero, giochi a catena che perseguono un throughput estremo, agenti di intelligenza artificiale e catene di esecuzione modulari. MegaETH, d'altra parte, è più adatto per progetti L2, progetti DeFi e protocolli infrastrutturali che vogliono ottenere aggiornamenti delle prestazioni con modifiche di sviluppo minime. Sono come treni ad alta velocità su un nuovo binario, ridefiniti dal binario, dalla rete elettrica alla carrozzeria dell'auto, solo per raggiungere una velocità e un'esperienza senza precedenti; Un altro esempio è l'installazione di turbine sulle autostrade esistenti, il miglioramento della programmazione delle corsie e della struttura del motore, consentendo ai veicoli di andare più veloci senza lasciare la rete stradale familiare. Le due cose potrebbero finire allo stesso modo: nella prossima fase delle architetture blockchain modulari, Monad potrebbe diventare un modulo "execution-as-a-service" per i Rollup, e MegaETH potrebbe diventare un plugin di accelerazione delle prestazioni per i L2 mainstream. I due potrebbero eventualmente convergere per formare le due ali del motore di esecuzione distribuita ad alte prestazioni nel futuro mondo Web3. 5. Opportunità e sfide future del calcolo parallelo Man mano che il calcolo parallelo passa dalla progettazione cartacea all'implementazione on-chain, il potenziale che sblocca sta diventando più concreto e misurabile. Da un lato, abbiamo visto che nuovi paradigmi di sviluppo e modelli di business hanno iniziato a ridefinire le "prestazioni on-chain": una logica di gioco a catena più complessa, un ciclo di vita dell'agente AI più realistico, un protocollo di scambio dati più in tempo reale, un'esperienza interattiva più immersiva e persino un sistema operativo Super App collaborativo on-chain stanno cambiando da "possiamo farlo" a "quanto bene possiamo farlo". D'altra parte, ciò che guida davvero la transizione al calcolo parallelo non è solo il miglioramento lineare delle prestazioni del sistema, ma anche il cambiamento strutturale dei confini cognitivi degli sviluppatori e dei costi di migrazione ecologica. Proprio come l'introduzione del meccanismo di contratto Turing-complete da parte di Ethereum ha dato vita all'esplosione multidimensionale di DeFi, NFT e DAO, la "ricostruzione asincrona tra stato e istruzione" determinata dal calcolo parallelo sta anche dando vita a un nuovo modello mondiale on-chain, che non è solo una rivoluzione nell'efficienza di esecuzione, ma anche un focolaio di innovazione della fissione nella struttura del prodotto. Innanzitutto, dal punto di vista delle opportunità, il vantaggio più diretto è l'"innalzamento del tetto delle candidature". La maggior parte delle attuali applicazioni DeFi, di gioco e social sono limitate da colli di bottiglia statali, costi del gas e latenza e non possono realmente trasportare interazioni ad alta frequenza sulla catena su larga scala. Prendendo come esempio i giochi a catena, il GameFi con feedback di movimento reale, sincronizzazione del comportamento ad alta frequenza e logica di combattimento in tempo reale quasi non esiste, perché l'esecuzione lineare dell'EVM tradizionale non può supportare la conferma della trasmissione di dozzine di cambiamenti di stato al secondo. Con il supporto del calcolo parallelo, attraverso meccanismi come i DAG transazionali e i contesti asincroni a livello di contratto, è possibile costruire catene ad alta concorrenza e garantire risultati di esecuzione deterministici attraverso la coerenza degli snapshot, in modo da ottenere una svolta strutturale nel "motore di gioco on-chain". Analogamente, anche l'implementazione e il funzionamento degli agenti di IA saranno notevolmente migliorati dal calcolo parallelo. In passato, tendevamo a eseguire gli agenti di intelligenza artificiale off-chain e a caricare i risultati del loro comportamento solo su contratti on-chain, ma in futuro l'on-chain può supportare la collaborazione asincrona e la condivisione dello stato tra più entità di intelligenza artificiale attraverso la pianificazione parallela delle transazioni, in modo da realizzare veramente la logica autonoma in tempo reale dell'agente on-chain. Il calcolo parallelo sarà l'infrastruttura per questo "contratto guidato dal comportamento", guidando il Web3 da una "transazione come risorsa" a un nuovo mondo di "interazione come agente". In secondo luogo, anche la toolchain di sviluppo e il livello di astrazione della macchina virtuale sono stati rimodellati strutturalmente a causa della parallelizzazione. Il tradizionale paradigma di sviluppo di Solidity si basa su un modello di pensiero seriale, in cui gli sviluppatori sono abituati a progettare la logica come un cambiamento di stato a thread singolo, ma nelle architetture di calcolo parallelo, gli sviluppatori saranno costretti a pensare ai conflitti di set di lettura/scrittura, alle politiche di isolamento dello stato, all'atomicità delle transazioni e persino a introdurre modelli architettonici basati su code di messaggi o pipeline di stato. Questo salto nella struttura cognitiva ha anche dato vita alla rapida ascesa di una nuova generazione di catene di strumenti. Ad esempio, i framework di smart contract paralleli che supportano le dichiarazioni di dipendenza transazionale, i compilatori di ottimizzazione basati su IR e i debugger concorrenti che supportano la simulazione di snapshot delle transazioni diventeranno tutti focolai di esplosioni dell'infrastruttura nel nuovo ciclo. Allo stesso tempo, la continua evoluzione delle blockchain modulari ha portato anche un eccellente percorso di atterraggio per il calcolo parallelo: Monad può essere inserito in L2 Rollup come modulo di esecuzione, MegaETH può essere implementato come sostituto EVM per le catene mainstream, Celestia fornisce il supporto del livello di disponibilità dei dati e EigenLayer fornisce una rete di validatori decentralizzata, formando così un'architettura integrata ad alte prestazioni dai dati sottostanti alla logica di esecuzione. Tuttavia, l'avanzamento del calcolo parallelo non è una strada facile e le sfide sono ancora più strutturali e difficili da rosicchiare rispetto alle opportunità. Da un lato, le principali difficoltà tecniche risiedono nella "garanzia di coerenza della concorrenza statale" e nella "strategia di gestione dei conflitti di transazione". A differenza dei database off-chain, l'on-chain non può tollerare un grado arbitrario di rollback delle transazioni o di retrazione dello stato, ed eventuali conflitti di esecuzione devono essere modellati in anticipo o controllati con precisione durante l'evento. Ciò significa che l'utilità di pianificazione parallela deve disporre di forti funzionalità di costruzione del grafico delle dipendenze e di previsione dei conflitti e allo stesso tempo progettare un meccanismo di tolleranza agli errori di esecuzione ottimistico efficiente, altrimenti il sistema è soggetto a "tempesta di tentativi di errore simultaneo" in condizioni di carico elevato, che non solo aumenta ma diminuisce e causa persino l'instabilità della catena. Inoltre, l'attuale modello di sicurezza dell'ambiente di esecuzione multi-thread non è ancora stato completamente stabilito, come la precisione del meccanismo di isolamento dello stato tra i thread, il nuovo utilizzo di attacchi di re-entrancy in contesti asincroni e l'esplosione di gas di chiamate di contratto cross-threaded, tutti nuovi problemi che devono essere risolti. Le sfide più insidiose derivano da aspetti ecologici e psicologici. Se gli sviluppatori sono disposti a migrare verso il nuovo paradigma, se sono in grado di padroneggiare i metodi di progettazione dei modelli paralleli e se sono disposti a rinunciare ad una certa leggibilità e verificabilità contrattuale per ottenere vantaggi in termini di prestazioni sono la chiave per stabilire se il calcolo parallelo può formare energia potenziale ecologica. Negli ultimi anni, abbiamo visto un certo numero di catene con prestazioni superiori ma prive di supporto per gli sviluppatori cadere gradualmente in silenzio, come NEAR, Avalanche e persino alcune catene Cosmos SDK con prestazioni di gran lunga migliori di EVM, e la loro esperienza ci ricorda che senza sviluppatori non c'è ecosistema; Senza ecologia, non importa quanto siano buone le prestazioni, è solo un castello in aria. Pertanto, i progetti di calcolo parallelo non dovrebbero solo realizzare il motore più potente, ma anche realizzare il percorso di transizione ecologica più delicato, in modo che "le prestazioni siano il pronto all'uso" piuttosto che "le prestazioni siano la soglia cognitiva". In definitiva, il futuro del calcolo parallelo è sia un trionfo per l'ingegneria dei sistemi che un test per l'eco-design. Ci costringerà a riesaminare "qual è l'essenza della catena": è una macchina di regolamento decentralizzata o un orchestratore statale in tempo reale distribuito a livello globale? In quest'ultimo caso, le capacità di throughput statale, concorrenza delle transazioni e reattività ai contratti, che in precedenza erano considerate "dettagli tecnici della catena", diventeranno alla fine gli indicatori primari che definiscono il valore della catena. Il paradigma di calcolo parallelo che completerà veramente questa transizione diventerà anche la primitiva dell'infrastruttura più core e più composta in questo nuovo ciclo, e il suo impatto andrà ben oltre un modulo tecnico e potrebbe costituire un punto di svolta nel paradigma di calcolo complessivo del Web3. 6. Conclusione: il calcolo parallelo è il percorso migliore per l'espansione nativa del Web3? Di tutti i percorsi che esplorano i confini delle prestazioni Web3, il calcolo parallelo non è il più facile da implementare, ma potrebbe essere il più vicino all'essenza della blockchain. Non migra off-chain, né sacrifica la decentralizzazione in cambio del throughput, ma cerca di ricostruire il modello di esecuzione stesso nell'atomicità e nel determinismo della catena, dal livello di transazione, dal livello di contratto e dal livello di macchina virtuale alla radice del collo di bottiglia delle prestazioni. Questo metodo di scalabilità "nativo della catena" non solo mantiene il modello di fiducia di base della blockchain, ma riserva anche un terreno di prestazioni sostenibili per applicazioni on-chain più complesse in futuro. La sua difficoltà sta nella struttura, e il suo fascino sta nella struttura. Se il refactoring modulare è l'"architettura della catena", allora il refactoring del calcolo parallelo è "l'anima della catena". Questa potrebbe non essere una scorciatoia per lo sdoganamento, ma è probabile che sia l'unica soluzione positiva sostenibile nell'evoluzione a lungo termine del Web3. Stiamo assistendo a una transizione architetturale da CPU single-core a sistemi operativi multi-core/threaded e l'aspetto di sistemi operativi nativi Web3 potrebbe essere nascosto in questi esperimenti paralleli in-chain.
Mostra originale
122.349
1
charker 📱
charker 📱
Non riesco a credere che Satoshi abbia ancora tutti i suoi BCH e BSV. Lancette di diamanti letterali.
Mostra originale
11.482
16
CoinDesk
CoinDesk
La piattaforma di trading eToro (ETOR) ha ampliato la sua offerta di criptovalute negli Stati Uniti, aggiungendo 12 nuovi asset digitali tra cui Dogecoin DOGE, Cardano ADA e XRP XRP, ha dichiarato mercoledì la società. Le aggiunte portano a 15 il numero totale di criptovalute disponibili per gli utenti statunitensi. I nuovi token includono anche Aave AAVE, Chainlink LINK, Compound COMP, Ethereum Classic ETC, Litecoin LTC, Uniswap UNI, Stellar XLM, Shiba Inu SHIB e Yearn Finance YFI. In precedenza, gli utenti con sede negli Stati Uniti potevano scambiare solo Bitcoin BTC, Bitcoin Cash BCH ed Ethereum ETH sulla piattaforma. La mossa fa parte della spinta di eToro ad ampliare la sua presenza nel mercato statunitense e a soddisfare la domanda al dettaglio e ad abbinare le offerte di operatori più grandi come Coinbase (COIN) e Robinhood (HOOD). L'annuncio arriva poche settimane dopo che eToro ha fatto il suo debutto pubblico sul Nasdaq, segnando la prima società di criptovalute statunitense a quotarsi in borsa dopo mesi di tensioni commerciali e mercati traballanti. L'emittente di stablecoin Circle, che da tempo ha in programma di quotarsi in borsa, ha presentato martedì la sua offerta pubblica iniziale. Nonostante il turbolento contesto macroeconomico, l'IPO di eToro è stata ben accolta. La società ha raccolto circa 310 milioni di dollari, superando le aspettative e segnalando l'interesse degli investitori per il modello combinato di piattaforma di trading di azioni e criptovalute. Le azioni sono leggermente in ribasso mercoledì a $ 64,15, ma rimangono ben al di sopra del prezzo dell'IPO di $ 52. Disclaimer: Parti di questo articolo sono state generate con l'assistenza di strumenti di intelligenza artificiale e riviste dal nostro team editoriale per garantire l'accuratezza e l'aderenza ai nostri standard. Per ulteriori informazioni, consulta la politica AI completa di CoinDesk.
Mostra originale
534.896
3

Calcolatore BCH

USDUSD
BCHBCH

Prestazioni prezzo Bitcoin Cash in USD

Il prezzo attuale di Bitcoin Cash è $405,60. Nelle ultime 24 ore, Bitcoin Cash è diminuito di -2,83%. Al momento ha un'offerta circolante di 19.877.684 BCH e un'offerta massima di 21.000.000 BCH, assegnando una capitalizzazione di mercato completamente diluita di $8,06B. Al momento, la criptovaluta Bitcoin Cash detiene la posizione 16 nei ranking di capitalizzazione di mercato. Il prezzo Bitcoin Cash/USD è aggiornato in tempo reale.
Oggi
-$11,8000
-2,83%
7 giorni
-$9,9000
-2,39%
30 giorni
+$28,2000
+7,47%
3 mesi
+$84,4000
+26,27%

Informazioni su Bitcoin Cash (BCH)

3.6/5
CyberScope
4.4
16/04/2025
TokenInsight
2.7
08/11/2024
Il rating fornito è un rating aggregato raccolto da OKX dalle fonti date e ha scopo puramente informativo. OKX non garantisce la qualità o la precisione dei rating. Non è destinato a fornire (i) consigli o raccomandazioni in materia di investimenti; (ii) un'offerta o una sollecitazione all'acquisto, alla vendita o al possesso di asset digitali; oppure (iii) consigli di natura finanziaria, contabile, legale o fiscale. Gli asset digitali, tra cui stablecoin e NFT, comportano un elevato livello di rischio, sono soggetti a fluttuazioni estreme e possono perdere tutto il loro valore. Il prezzo e le prestazioni degli asset digitali non sono garantiti e potrebbero variare senza preavviso. I tuoi asset digitali non sono coperti da garanzia contro potenziali perdite. I rendimenti storici non rappresentano un'indicazione di rendimenti futuri. OKX non garantisce alcun rimborso di capitale o interessi. OKX non garantisce il rimborso del capitale o dell'interesse. Valuta attentamente se fare trading o mantenere asset digitali è idoneo per te alla luce delle tue condizioni finanziarie. Consulta il tuo professionista legale/fiscale/di investimenti in caso di domande sulle tue circostanze specifiche.
Mostra di più
  • Sito web ufficiale
  • White paper
  • Github
  • Block explorer
  • Informazioni sui siti Web di terze parti
    Informazioni sui siti Web di terze parti
    Utilizzando il sito Web di terze parti ("TPW"), accetti che qualsiasi utilizzo del TPW sarà soggetto e regolato dai termini del sito TPW. Salvo espressa indicazione scritta, OKX e le sue affiliate ("OKX") non sono in alcun modo associati al proprietario o all'operatore del TPW. Accetti che OKX non sia responsabile per eventuali perdite, danni e qualsiasi altra conseguenza derivante dall'utilizzo del TPW. Tieni presente che l'utilizzo di un TPW potrebbe comportare una perdita o una riduzione dei tuoi asset.

Bitcoin Cash (BCH) è una rete di pagamento in criptovaluta creata per implementare l'idea principale di Bitcoin di facilitarepagamenti peer-to-peerper le transazioni giornaliere piuttosto che diventare un preferitoriserva di valore come Bitcoin (BTC).

Nonostante sia lo standard d'oro del mondo delle criptovalute, Bitcoin ha alcuni problemi inerenti che vengono ampiamente disputi nel dominio pubblico. Le sue dimensioni di blocco limitate di 1 MB sono le più note, il che la rende non scalabile. Questa mancanza ha causato un notevole aumento dei compensi dovuti per le transazioni di Bitcoin.

Una parte dei partecipanti alla rete Bitcoin aveva richiesto blocchi più grandi già nel 2010. Tuttavia, non avendo visto alcun risultato dai loro sforzi, questo gruppo hard fork di Bitcoin Cash dalla blockchain Bitcoin il 1° agosto 2017. Bitcoin Cash è stato lanciato con un limite di dimensione del blocco di 8 MB, poi si è espanso fino a 32 MB nel 2018.

L'obiettivo principale di Bitcoin Cash è quello di raggiungere lo scopo originale di Bitcoin. Il suo team si impegna costantemente a rendere BCH un sistema di pagamento elettronico peer-to-peer più economico, più veloce, scalabile e facile da usare. Inoltre, non trattiene l'aumento delle dimensioni dei blocchi o l'aggiornamento per mantenere il progetto ben allineato al suo obiettivo principale. Bitcoin Cash funziona come Bitcoin, poiché può essere facilmente trasferito da un individuo all'altro senza intermediari finanziari o censura.

Gli holder di token BCH possonoinviare e ricevere BCH tramite i loro portafogli digitaliusando le chiavi pubbliche uniche associate a queste ultime. Di conseguenza, le transazioni BCH vengono regolate quasi all'istante e comportano una commissione media di trasferimento inferiore. Alcune aziende note che accettano Bitcoin Cash per i loro beni e servizi sono Twitch, Newegg, CyberGhost VPN, SlingTV, Namecheap, airPORT, ALFAtop, Menefy, SatoshiDice, CoinRemitter ed eGifter.

Come funziona BCH?

Il funzionamento di Bitcoin Cash è abbastanza simile a quello di Bitcoin. La differenza principale è la dimensione del blocco maggiore, che consente una velocità di transazione più elevata e commissioni ridotte. Detto questo, le dimensioni dei blocchi più grandi rendono l'audit e l'archiviazione costosi e causano difficoltà nel download di una copia della blockchain.

Come Bitcoin, anche Bitcoin Cash utilizza unModello di consenso Proof of Work (PoW)per proteggere la sua rete. Le entità chiamate miner si competono per elaborare le transazioni e aggiungere nuovi blocchi alla blockchain Bitcoin Cash. A tal fine, impiegano dispositivi informatici complessi.algoritmo di hashing di Bitcoin Cashè SHA-256, lo stesso di quello di Bitcoin.

Uno dei più grandi distinzioni tra Bitcoin e Bitcoin Cash è la "modifica della difficoltà" per il mining di nuovi blocchi. Sebbene il software Bitcoin modifichi questo fattore di difficoltà ogni 2.016 blocchi, lo fa ogni 10 minuti in Bitcoin Cash.

I frequenti aggiornamenti mirano a fornire una comprensione più chiara della potenza di calcolo richiesta per il mining di BCH. I miner di Bitcoin Cash ricevono ricompense sotto forma di nuove monete BCH e compensi dovuti per le transazioni per i loro sforzi nell'aggiunta di blocchi. Bitcoin Cash supporta anche gli smart contract, consentendocreazione di applicazioni decentralizzate (DApp)sulla sua blockchain. Notevoli dApp basate su Bitcoin Cash includono CashFusion, CashScript, earBCH, Flipstarter, AnyHedge, Libauth, Spedn e Fountainhead.

Bitcoin Cash ha una rete decentralizzata, a basso costo, con throughput elevato e facile da usare per le transazioni BCH. Eventuali modifiche necessarie sulla sua mainnet coinvolgono molti nodi e un elevato livello di consenso. Ciò limita i processi di prova e errore, che sono un must per l'innovazione.

Lanciato a luglio 2021, Smart Bitcoin Cash o SmartBCH è una sidechain di Bitcoin Cash creata per esplorare nuove idee e sbloccare nuove possibilità. È compatibile conAPI Web3e EVM di Ethereum, che offrono un elevato throughput per le dApp, in un ambiente sicuro, decentralizzato e veloce. La side chain non ha nuovi token. Il suo token nativo è BCH e tutte le gas fee sulla rete sono pagate in BCH.

Prezzo e tokenomics di BCH

Come Bitcoin, l'offerta massima di Bitcoin Cash ha un limite massimo di 21 milioni di monete. Di questi, 15,17 milioni erano in circolazione al momento della scrittura. Ci sono 17,12 milioni di indirizzi BCH in holding al momento della stampa, con i primi 10 indirizzi in holding quasi 2,3 milioni di BCH. Quando Bitcoin Cash ha fatto il fork duro da Bitcoin, quasi 16,6 milioni di BCH erano distribuiti tra gli holder di BTC esistenti a un rapporto 1:1.

Ogni volta che un miner BCH aggiunge un nuovo blocco alla blockchain Bitcoin Cash, viene assegnato alle monete BCH come ricompensa. Questo processo porta nuove monete BCH nell'offerta circolante. Bitcoin Cash ha unameccanismo deflazionistico chiamato "halving", come Bitcoin. In base a questo meccanismo, le ricompense di block mining vengono dimezzate ogni 210.000 blocchi o circa quattro anni. Condivide la cronologia delle transazioni di Bitcoin a questo riguardo fino al 1° agosto 2017, giorno del suo lancio.

L'ultimo halving di Bitcoin Cash è avvenuto nell'aprile 2020, il che ha ridotto le ricompense di mining da 12,5 BCH per blocco a 6,25 BCH. Il prossimo evento di halving dovrebbe verificarsi nel 2024, riducendo la ricompensa di mining di BCH a 3,125 BCH per blocco.

Sviluppo di BCH

L'evento più significativo nella storia di Bitcoin Cash è stato l'hard fork del 2018, con la conseguente creazione diBitcoin SV (BSV)il 15 novembre 2018. Ciò ha portato a un notevole calo del prezzo di BCH da $ 444 a un minimo storico di $76 il 16 dicembre 2018. L'hard fork è emerso come una " guerra civile" tra due campi concorrenti all'interno dell'ecosistema Bitcoin Cash. Un campo, guidato da Roger Ver e da Jihan Wu di Bitmain, ha supportato il software Bitcoin ABC, mantenendo una dimensione di blocco di 32 MB. Al contrario, l'altro campo, guidato da Craig PEI Wright e Calvin Ayre, ha preferito Bitcoin SV con una dimensione di blocco di 128 MB.

Un altro sviluppo significativo per Bitcoin Cash si è verificato a marzo 2020 quandoStablecoin Tether (USDT)è stato lanciato sulla sua blockchain attraverso lo standard di token SLP (protocollo semplice ledger). Questa implementazione ha permesso agli utenti di effettuare transazioni di USDT sulla blockchain Bitcoin Cash insieme a reti comeEOS,Ethereum,Tron,Algorand, Liquid Network e Omni.

Informazioni sui fondatori

I partecipanti e i miner della rete hanno fondato collettivamente Bitcoin Cash nell'ecosistema Bitcoin. Questi includevano nomi di spicco come Roger Ver, Amaury Sechet, Bitmain, ViaBTC e Craig Wright.

Tutti questi partecipanti sono stati contro la proposta di aggiornamento Segwit2x su Bitcoin, il che significava aumentare la sua capacità. Preferiva aumentare la dimensione del blocco di Bitcoin a 8 MB invece. Tuttavia, non è possibile soddisfare la loro domanda, questo gruppo ha lanciato un hard fork di Bitcoin il 1° agosto 2017, chiamandolo Bitcoin Cash.

Mostra di più
Mostra di meno
Negozia criptovalute e derivati popolari con commissioni basse
Negozia criptovalute e derivati popolari con commissioni basse
Inizia

Domande frequenti relative al prezzo di Bitcoin Cash

Quali fattori influenzano il prezzo di Bitcoin Cash?
Il prezzo di Bitcoin Cash è direttamente correlato al prezzo di Bitcoin. Quindi, qualsiasi calo o aumento di quest'ultimo provoca una corrispondente azione di prezzo per il primo. Il prezzo di BCH è inoltre influenzato da molteplici fattori, tra cui l'offerta fissa del token, gli impegni di adozione e le modifiche normative relative alle criptovalute.
Come posso acquistare Bitcoin Cash?

Puoi acquistare BCH dall'exchange di OKX. OKX offre le coppie di trading BCH/USDT, BCH/USDC e BCH/BTC. In alternativa, puoi acquistare BCH direttamente con valute fiat o convertire le tue criptovalute in BCH.


Prima di iniziare a fare trading con OKX, devi creare un conto. Per acquistare BCH con la tua valuta preferita, fai clic su "Acquista con carta" sotto "Acquista criptovaluta" nella barra di navigazione in alto. Per fare trading di BCH/USDT, BCH/USDC o BCH/BTC, fai clic su "Trading di base" sotto "Trading". Nella stessa scheda, fai clic su "Converti" per convertire le criptovalute in BCH.


In alternativa, visita il nostro nuovo Calcolatore per criptovalute di OKX. Seleziona BCH e la valuta fiat desiderata da convertire per visualizzare il prezzo di conversione stimato in tempo reale.

Come posso acquistare Bitcoin Cash a un prezzo specifico?
Se desideri acquistare Bitcoin Cash a un prezzo specifico, puoi configurare un ordine limite "Acquista BCH" sulla nostra pagina di trading di spot. Questo ti permetterà di acquistare Bitcoin Cash a tuo piacimento. Tuttavia, ricorda che potrebbe essere necessario attendere fino a quando non viene trovato un venditore corrispondente sull'exchange per il tuo ordine di acquisto.
A quanto corrisponde 1 Bitcoin Cash oggi?
Al momento, un Bitcoin Cash vale $405,60. Per risposte e informazioni approfondite sull'azione sui prezzi di Bitcoin Cash, sei nel posto giusto. Esplora i grafici Bitcoin Cash più recenti e fai trading in modo responsabile con OKX.
Che cosa sono le criptovalute?
Le criptovalute, ad esempio Bitcoin Cash, sono asset digitali che operano su un ledger pubblico chiamato blockchain. Scopri di più su monete e token offerti su OKX e sui loro diversi attributi, inclusi prezzi e grafici in tempo reale.
Quando è stata inventata la criptovaluta?
A seguito della crisi finanziaria del 2008, l'interesse nei confronti della finanza decentralizzata è cresciuto. Bitcoin ha offerto una nuova soluzione imponendosi come asset digitale sicuro su una rete decentralizzata. Da allora, sono stati creati anche molti altri token come Bitcoin Cash.
Il prezzo di Bitcoin Cash aumenterà oggi?
Dai un'occhiata alla nostra pagina di previsione sul prezzo di Bitcoin Cash per prevedere i prezzi futuri e determinare i tuoi target di prezzo.

Informativa ESG

Le normative ESG (Environmental, Social and Governance) per gli asset di criptovaluta hanno lo scopo di gestire il loro impatto ambientale (ad es., attività minerarie dispendiose in termini di energia), promuovere la trasparenza e garantire pratiche di governance etiche per allineare l'industria delle criptovalute ai più ampi obiettivi di sostenibilità e sociali. Queste normative incoraggiano la conformità agli standard che riducono i rischi e favoriscono la fiducia negli asset digitali.
Dettagli degli asset
Nome
OKcoin Europe LTD
Identificatore dell'entità legale pertinente
54930069NLWEIGLHXU42
Nome dell'asset di criptovaluta
Bitcoin Cash
Meccanismo di consenso
Bitcoin Cash is present on the following networks: Bitcoin Cash, Smart Bitcoin Cash. The Bitcoin Cash blockchain network uses a consensus mechanism called Proof of Work (PoW) to achieve distributed consensus among its nodes. It originated from the Bitcoin blockchain, hence has the same consensus mechanisms but with a larger block size, which makes it more centralized. Core Concepts 1. Nodes and Miners: - Nodes: Nodes are computers running the Bitcoin Cash software that participate in the network by validating transactions and blocks. - Miners: Special nodes, called miners, perform the work of creating new blocks by solving complex cryptographic puzzles. 2. Blockchain: - The blockchain is a public ledger that records all Bitcoin Cash transactions in a series of blocks. Each block contains a list of transactions, a reference to the previous block (hash), a timestamp, and a nonce (a random number used once). 3. Hash Functions: - Bitcoin Cash uses the SHA-256 cryptographic hash function to secure the data in blocks. A hash function takes input data and produces a fixed-size string of characters, which appears random. Consensus Process 5. Transaction Validation: - Transactions are broadcast to the network and collected by miners into a block. Each transaction must be validated by nodes to ensure it follows the network's rules, such as correct signatures and sufficient funds. 6. Mining and Block Creation: - Nonce and Hash Puzzle: Miners compete to find a nonce that, when combined with the block's data and passed through the SHA-256 hash function, produces a hash that is less than a target value. This target value is adjusted periodically to ensure that blocks are mined approximately every 10 minutes. - Proof of Work: The process of finding this nonce is computationally intensive and requires significant energy and resources. Once a miner finds a valid nonce, they broadcast the newly mined block to the network. 7. Block Validation and Addition: - Other nodes in the network verify the new block to ensure the hash is correct and that all transactions within the block are valid. - If the block is valid, nodes add it to their copy of the blockchain and the process starts again with the next block. 8. Chain Consensus: - The longest chain (the chain with the most accumulated proof of work) is considered the valid chain by the network. Nodes always work to extend the longest valid chain. - In the case of multiple valid chains (forks), the network will eventually resolve the fork by continuing to mine and extending one chain until it becomes longer. Smart Bitcoin Cash (SmartBCH) operates as a sidechain to Bitcoin Cash (BCH), leveraging a hybrid consensus mechanism combining Proof of Work (PoW) compatibility and validator-based validation. Core Components: Proof of Work Compatibility: SmartBCH relies on Bitcoin Cash's PoW for settlement and security, ensuring robust integration with BCH’s main chain. SHA-256 Algorithm: Uses the same SHA-256 hashing algorithm as Bitcoin Cash, allowing compatibility with existing mining hardware and infrastructure. Consensus via Validators: Transactions within SmartBCH are validated by a set of validators chosen based on staking and operational efficiency. This hybrid approach combines the hash power of PoW with a validator-based model to enhance scalability and flexibility.
Meccanismi di incentivi e commissioni applicabili
Bitcoin Cash is present on the following networks: Bitcoin Cash, Smart Bitcoin Cash. The Bitcoin Cash blockchain operates on a Proof-of-Work (PoW) consensus mechanism, with incentives and fee structures designed to support miners and the overall network's sustainability: Incentive Mechanism: 1. Block Rewards: o Newly Minted Bitcoins: Miners receive a block reward, which consists of newly created bitcoins for successfully mining a new block. Initially, the reward was 50 BCH, but it halves approximately every four years in an event known as the "halving." o Halving and Scarcity: The halving ensures that the total supply of Bitcoin Cash is capped at 21 million BCH, creating scarcity that could drive up value over time. 2. Transaction Fees: o User Fees: Each transaction includes a fee, paid by users, that incentivizes miners to include the transaction in a new block. This fee market becomes increasingly important as block rewards decrease over time due to the halving events. o Fee Market: Transaction fees are market-driven, with users competing to get their transactions included quickly. Higher fees lead to faster transaction processing, especially during periods of high network congestion. Applicable Fees: 1. Transaction Fees: o Bitcoin Cash transactions require a small fee, paid in BCH, which is determined by the transaction's size and the network demand at the time. These fees are crucial for the continued operation of the network, particularly as block rewards decrease over time due to halvings. 2. Fee Structure During High Demand: o In times of high congestion, users may choose to increase their transaction fees to prioritize their transactions for faster processing. The fee structure ensures that miners are incentivized to prioritize higher-fee transactions. SmartBCH’s incentive model encourages validators and network participants to secure the sidechain and process transactions efficiently. Incentive Mechanisms: Validator Rewards: Validators are rewarded with a share of transaction fees for their role in validating transactions and maintaining the network. Economic Alignment: The system incentivizes validators to act in the network’s best interest, ensuring stability and fostering adoption through economic alignment. Applicable Fees: Transaction Fees: Fees for transactions on SmartBCH are paid in BCH, ensuring seamless integration with the Bitcoin Cash ecosystem.
Inizio del periodo di riferimento dell'informativa
2024-05-31
Fine del periodo di riferimento dell'informativa
2025-05-31
Report sull'energia
Utilizzo di energia
714468199.89577 (kWh/a)
Utilizzo di energia rinnovabile
24.134702976 (%)
Intensità energetica
0.09437 (kWh)
Metodologie e fonti di energia principali
To determine the proportion of renewable energy usage, the locations of the nodes are to be determined using public information sites, open-source crawlers and crawlers developed in-house. If no information is available on the geographic distribution of the nodes, reference networks are used which are comparable in terms of their incentivization structure and consensus mechanism. This geo-information is merged with public information from Our World in Data, see citation. The intensity is calculated as the marginal energy cost wrt. one more transaction. Ember (2025); Energy Institute - Statistical Review of World Energy (2024) – with major processing by Our World in Data. “Share of electricity generated by renewables – Ember and Energy Institute” [dataset]. Ember, “Yearly Electricity Data Europe”; Ember, “Yearly Electricity Data”; Energy Institute, “Statistical Review of World Energy” [original data]. Retrieved from https://ourworldindata.org/grapher/share-electricity-renewables
Metodologie e fonti di energia
The energy consumption of this asset is aggregated across multiple components: For the calculation of energy consumptions, the so called “top-down” approach is being used, within which an economic calculation of the miners is assumed. Miners are persons or devices that actively participate in the proof-of-work consensus mechanism. The miners are considered to be the central factor for the energy consumption of the network. Hardware is pre-selected based on the consensus mechanism's hash algorithm: SHA-256. A current profitability threshold is determined on the basis of the revenue and cost structure for mining operations. Only Hardware above the profitability threshold is considered for the network. The energy consumption of the network can be determined by taking into account the distribution for the hardware, the efficiency levels for operating the hardware and on-chain information regarding the miners' revenue opportunities. If significant use of merge mining is known, this is taken into account. When calculating the energy consumption, we used - if available - the Functionally Fungible Group Digital Token Identifier (FFG DTI) to determine all implementations of the asset of question in scope and we update the mappings regulary, based on data of the Digital Token Identifier Foundation. For the calculation of energy consumptions, the so called “bottom-up” approach is being used. The nodes are considered to be the central factor for the energy consumption of the network. These assumptions are made on the basis of empirical findings through the use of public information sites, open-source crawlers and crawlers developed in-house. The main determinants for estimating the hardware used within the network are the requirements for operating the client software. The energy consumption of the hardware devices was measured in certified test laboratories. When calculating the energy consumption, we used - if available - the Functionally Fungible Group Digital Token Identifier (FFG DTI) to determine all implementations of the asset of question in scope and we update the mappings regulary, based on data of the Digital Token Identifier Foundation.
Report sulle emissioni
Emissioni DLT GHG Scope 1 - Controllato
0.00000 (tCO2e/a)
Emissioni DLT GHG Scope 2 - Acquistato
294358.08430 (tCO2e/a)
Intensità GHG
0.03888 (kgCO2e)
Metodologie e fonti GHG principali
To determine the GHG Emissions, the locations of the nodes are to be determined using public information sites, open-source crawlers and crawlers developed in-house. If no information is available on the geographic distribution of the nodes, reference networks are used which are comparable in terms of their incentivization structure and consensus mechanism. This geo-information is merged with public information from Our World in Data, see citation. The intensity is calculated as the marginal emission wrt. one more transaction. Ember (2025); Energy Institute - Statistical Review of World Energy (2024) – with major processing by Our World in Data. “Carbon intensity of electricity generation – Ember and Energy Institute” [dataset]. Ember, “Yearly Electricity Data Europe”; Ember, “Yearly Electricity Data”; Energy Institute, “Statistical Review of World Energy” [original data]. Retrieved from https://ourworldindata.org/grapher/carbon-intensity-electricity Licenced under CC BY 4.0

Calcolatore BCH

USDUSD
BCHBCH
Scopri il mondo cripto
Scopri il mondo cripto
L'exchange di criptovalute migliore, più veloce e più forte di qualunque altro.