1. Wprowadzenie: Ekspansja jest wieczną propozycją, a równoległość jest ostatecznym polem bitwy
Od narodzin Bitcoina, system blockchain zawsze borykał się z nieuniknionym podstawowym problemem: skalowaniem. Bitcoin przetwarza mniej niż 10 transakcji na sekundę, a Ethereum ma trudności z przebiciem się przez wąskie gardło wydajności dziesiątek TPS (transakcji na sekundę), co jest szczególnie uciążliwe w tradycyjnym świecie Web2, który często wynosi dziesiątki tysięcy TPS. Co ważniejsze, nie jest to prosty problem, który można rozwiązać poprzez "dodawanie serwerów", ale ograniczenie systemowe głęboko osadzone w podstawowym konsensusie i projekcie strukturalnym blockchaina - czyli niemożliwym trójkącie łańcucha bloków, w którym nie można połączyć "decentralizacji, bezpieczeństwa i skalowalności".
W ciągu ostatniej dekady byliśmy świadkami niezliczonych prób ekspansji, które wznosiły się i upadały. Od wojny o skalowanie Bitcoina po wizję shardingu Ethereum, od kanałów stanowych i plazmy po rollupy i modułowe blockchainy, od realizacji poza łańcuchem w warstwie 2 po strukturalną refaktoryzację dostępności danych, cała branża wkroczyła na ścieżkę skalowania pełną inżynieryjnej wyobraźni. Jako najszerzej akceptowany paradygmat skalowania, rollup osiągnął cel, jakim jest znaczne zwiększenie TPS przy jednoczesnym zmniejszeniu obciążenia wykonawczego głównego łańcucha i zachowaniu bezpieczeństwa Ethereum. Nie dotyka to jednak prawdziwych granic leżącej u podstaw blockchaina "wydajności pojedynczego łańcucha", zwłaszcza na poziomie wykonania, który jest przepustowością samego bloku – jest nadal ograniczony przez starożytny paradygmat przetwarzania obliczeń szeregowych w łańcuchu.
Z tego powodu przetwarzanie równoległe w łańcuchu stopniowo wkroczyło w pole widzenia branży. W odróżnieniu od skalowania poza łańcuchem i dystrybucji międzyłańcuchowej, równoległość wewnątrz łańcucha próbuje całkowicie zrekonstruować silnik wykonawczy przy zachowaniu atomowości pojedynczego łańcucha i zintegrowanej struktury, a także aktualizuje blockchain z jednowątkowego trybu "szeregowego wykonywania jednej transakcji po jednej" do systemu obliczeniowego o wysokiej współbieżności "wielowątkowość + potok + planowanie zależności" pod kierunkiem nowoczesnego systemu operacyjnego i projektu procesora. Taka ścieżka może nie tylko osiągnąć stukrotny wzrost przepustowości, ale także może stać się kluczowym warunkiem wstępnym dla eksplozji aplikacji inteligentnych kontraktów.
W rzeczywistości w paradygmacie obliczeń Web2 przetwarzanie jednowątkowe już dawno zostało wyeliminowane przez nowoczesne architektury sprzętowe i zastąpione przez niekończący się strumień modeli optymalizacji, takich jak programowanie równoległe, planowanie asynchroniczne, pule wątków i mikrousługi. Blockchain, jako bardziej prymitywny i konserwatywny system obliczeniowy o niezwykle wysokich wymaganiach dotyczących pewności i weryfikowalności, nigdy nie był w stanie w pełni wykorzystać tych pomysłów na obliczenia równoległe. Jest to zarówno ograniczenie, jak i szansa. Nowe łańcuchy, takie jak Solana, Sui i Aptos, są pierwszymi, które rozpoczynają tę eksplorację, wprowadzając równoległość na poziomie architektury. Pojawiające się projekty, takie jak Monad i MegaETH, jeszcze bardziej podniosły równoległość on-chain do przełomów w głębokich mechanizmach, takich jak wykonywanie potoków, optymistyczna współbieżność i asynchroniczne sterowanie komunikatami, wykazując cechy, które coraz bardziej zbliżają się do nowoczesnych systemów operacyjnych.
Można powiedzieć, że obliczenia równoległe to nie tylko "metoda optymalizacji wydajności", ale także punkt zwrotny w paradygmacie modelu wykonawczego blockchain. Rzuca wyzwanie podstawowym wzorcom realizacji inteligentnych kontraktów i na nowo definiuje podstawową logikę pakowania transakcji, dostępu do stanu, relacji połączeń i układu pamięci masowej. Jeśli rollup polega na "przenoszeniu transakcji do wykonania poza łańcuchem", to równoległość on-chain to "budowanie rdzeni superkomputerowych w łańcuchu", a jego celem nie jest po prostu poprawa przepustowości, ale zapewnienie prawdziwie zrównoważonego wsparcia infrastrukturalnego dla przyszłych natywnych aplikacji Web3 (handel o wysokiej częstotliwości, silniki gier, wykonywanie modeli AI, społecznościowe on-chain itp.).
Po tym, jak ścieżka rollupu stopniowo dąży do jednorodności, równoległość wewnątrz łańcucha po cichu staje się decydującą zmienną nowego cyklu konkurencji warstwy 1. Wydajność to już nie tylko "szybsza maszyna", ale możliwość obsługi całego heterogenicznego świata aplikacji. To nie tylko wyścig techniczny, ale także walka o paradygmat. Następna generacja suwerennych platform wykonawczych w świecie Web3 prawdopodobnie wyłoni się z tych równoległych zapasów wewnątrz łańcucha.
2. Paradygmat panoramy ekspansji: pięć rodzajów tras, z których każda ma swój własny nacisk
Rozbudowa zdolności produkcyjnych, jako jeden z najważniejszych, trwałych i najtrudniejszych tematów w ewolucji technologii łańcucha publicznego, doprowadziła do powstania i ewolucji prawie wszystkich głównych ścieżek technologicznych w ciągu ostatniej dekady. Zaczynając od bitwy o rozmiar bloku Bitcoina, ten techniczny konkurs na temat "jak przyspieszyć działanie łańcucha" ostatecznie podzielił się na pięć podstawowych tras, z których każda wcina się w wąskie gardło pod innym kątem, z własną filozofią techniczną, trudnością lądowania, modelem ryzyka i możliwymi do zastosowania scenariuszami.
Pierwsza droga to najprostsze skalowanie on-chain, co oznacza zwiększenie rozmiaru bloku, skrócenie czasu bloku lub poprawę mocy obliczeniowej poprzez optymalizację struktury danych i mechanizmu konsensusu. Podejście to było przedmiotem debaty na temat skalowania Bitcoina, dając początek forkom "big block", takim jak BCH i BSV, a także wpływając na pomysły projektowe wczesnych, wysokowydajnych łańcuchów publicznych, takich jak EOS i NEO. Zaletą tego rodzaju trasy jest to, że zachowuje prostotę spójności pojedynczego łańcucha, która jest łatwa do zrozumienia i wdrożenia, ale bardzo łatwo jest również dotknąć systemowej górnej granicy, takiej jak ryzyko centralizacji, rosnące koszty operacyjne węzłów i zwiększona trudność synchronizacji, więc nie jest to już główne rozwiązanie rdzeniowe w dzisiejszym projekcie, ale stało się bardziej pomocniczą kolokacją innych mechanizmów.
Drugim typem trasy jest skalowanie poza łańcuchem, które jest reprezentowane przez kanały stanów i łańcuchy boczne. Podstawową ideą tego typu ścieżki jest przeniesienie większości aktywności transakcyjnej poza łańcuch i zapisanie tylko końcowego wyniku do głównego łańcucha, który działa jako końcowa warstwa rozliczeniowa. Pod względem filozofii technicznej jest to bliskie asynchronicznej architekturze Web2 - staraj się pozostawić ciężkie przetwarzanie transakcji na peryferiach, a główny łańcuch przeprowadza minimalną zaufaną weryfikację. Chociaż idea ta może być teoretycznie nieskończenie skalowalna, model zaufania, bezpieczeństwo funduszy i złożoność interakcji transakcji poza łańcuchem ograniczają jej zastosowanie. Na przykład, chociaż Lightning Network ma jasne pozycjonowanie scenariuszy finansowych, skala ekosystemu nigdy nie eksplodowała. Jednak wiele projektów opartych na sidechainach, takich jak Polygon POS, nie tylko ma wysoką przepustowość, ale także ujawnia wady trudnego dziedziczenia bezpieczeństwa głównego łańcucha.
Trzeci typ trasy to najpopularniejsza i najczęściej wdrażana trasa zbiorcza warstwy 2. Ta metoda nie zmienia bezpośrednio samego głównego łańcucha, ale skaluje się poprzez mechanizm realizacji poza łańcuchem i weryfikacji on-chain. Optimistic Rollup i ZK Rollup mają swoje zalety: ten pierwszy jest szybki do wdrożenia i wysoce kompatybilny, ale ma problemy z opóźnieniem w okresie kwestionowania i mechanizmem odpornym na oszustwa; Ten ostatni ma silne zabezpieczenia i dobre możliwości kompresji danych, ale jest skomplikowany do opracowania i brakuje mu kompatybilności z EVM. Bez względu na to, jaki to jest rodzaj rollupu, jego istotą jest outsourcing mocy wykonawczej, przy jednoczesnym zachowaniu danych i weryfikacji w głównym łańcuchu, osiągając względną równowagę między decentralizacją a wysoką wydajnością. Szybki rozwój projektów takich jak Arbitrum, Optimism, zkSync i StarkNet dowodzi wykonalności tej ścieżki, ale ujawnia również średnioterminowe wąskie gardła, takie jak nadmierne poleganie na dostępności danych (DA), wysokie koszty i fragmentaryczne doświadczenie w programowaniu.
Czwartym rodzajem trasy jest modułowa architektura blockchain, która pojawiła się w ostatnich latach, taka jak Celestia, Avail, EigenLayer itp. Paradygmat modułowy opowiada się za całkowitym oddzieleniem podstawowych funkcji blockchaina - wykonywania, konsensusu, dostępności danych i rozliczeń - przez wiele wyspecjalizowanych łańcuchów w celu wykonania różnych funkcji, a następnie połączenia ich w skalowalną sieć za pomocą protokołu cross-chain. Duży wpływ na ten kierunek ma modułowa architektura systemu operacyjnego oraz koncepcja komponowalności chmury obliczeniowej, która ma tę zaletę, że umożliwia elastyczną wymianę komponentów systemu i znacznie poprawia wydajność w określonych obszarach, takich jak DA. Jednak wyzwania są również bardzo oczywiste: koszt synchronizacji, weryfikacji i wzajemnego zaufania między systemami po oddzieleniu modułów jest niezwykle wysoki, ekosystem programistów jest niezwykle rozdrobniony, a wymagania dotyczące średnio- i długoterminowych standardów protokołów i bezpieczeństwa cross-chain są znacznie wyższe niż w przypadku tradycyjnego projektowania łańcuchów. W istocie, model ten nie buduje już "łańcucha", ale buduje "sieć łańcuchową", co stanowi bezprecedensowy próg dla ogólnego zrozumienia architektury, obsługi i utrzymania.
Ostatnim typem trasy, na którym skupi się późniejsza analiza w tym artykule, jest wewnątrzłańcuchowa ścieżka optymalizacji obliczeń równoległych. W przeciwieństwie do pierwszych czterech typów "podziału poziomego", które przeprowadzają głównie "podział poziomy" z poziomu strukturalnego, obliczenia równoległe kładą nacisk na "ulepszenie pionowe", to znaczy jednoczesne przetwarzanie transakcji atomowych odbywa się poprzez zmianę architektury silnika wykonawczego w ramach jednego łańcucha. Wymaga to przepisania logiki planowania maszyn wirtualnych i wprowadzenia pełnego zestawu nowoczesnych mechanizmów planowania systemów komputerowych, takich jak analiza zależności transakcji, przewidywanie konfliktów stanów, kontrola równoległości i wywołania asynchroniczne. Solana jest pierwszym projektem, który implementuje koncepcję równoległej maszyny wirtualnej do systemu na poziomie łańcucha, który realizuje równoległe wykonywanie wielu rdzeni poprzez ocenę konfliktu transakcji w oparciu o model konta. Nowa generacja projektów, takich jak Monad, Sei, Fuel, MegaETH itp., próbuje dalej wprowadzać najnowocześniejsze pomysły, takie jak wykonywanie potoków, optymistyczna współbieżność, partycjonowanie pamięci masowej i równoległe rozprzęganie w celu zbudowania wysokowydajnych rdzeni wykonawczych podobnych do nowoczesnych procesorów. Główną zaletą tego kierunku jest to, że nie musi on polegać na architekturze wielołańcuchowej, aby osiągnąć przełom w limicie przepustowości, a jednocześnie zapewnia wystarczającą elastyczność obliczeniową do wykonywania złożonych inteligentnych kontraktów, co jest ważnym technicznym warunkiem wstępnym dla przyszłych scenariuszy zastosowań, takich jak AI Agent, gry łańcuchowe na dużą skalę i pochodne wysokiej częstotliwości.
Patrząc na powyższe pięć typów ścieżek skalowania, podział, który za nimi stoi, to w rzeczywistości systematyczny kompromis między wydajnością, komponowalnością, bezpieczeństwem i złożonością rozwoju blockchaina. Rollup jest silny w outsourcingu konsensusu i bezpiecznym dziedziczeniu, modułowość podkreśla elastyczność strukturalną i ponowne wykorzystanie komponentów, skalowanie poza łańcuchem próbuje przebić się przez wąskie gardło głównego łańcucha, ale koszt zaufania jest wysoki, a równoległość wewnątrz łańcucha koncentruje się na fundamentalnym ulepszeniu warstwy wykonawczej, próbując zbliżyć się do granicy wydajności nowoczesnych systemów rozproszonych bez niszczenia spójności łańcucha. Niemożliwe jest, aby każda ze ścieżek rozwiązała wszystkie problemy, ale to właśnie te kierunki razem tworzą panoramę aktualizacji paradygmatu obliczeniowego Web3, a także zapewniają deweloperom, architektom i inwestorom niezwykle bogate opcje strategiczne.
Tak jak system operacyjny przesunął się z jednordzeniowego na wielordzeniowy, a bazy danych ewoluowały od sekwencyjnych indeksów do jednoczesnych transakcji, ekspansja Web3 ostatecznie przesunie się w kierunku wysoce równoległej ery wykonawczej. W tej epoce wydajność nie jest już tylko wyścigiem prędkości łańcucha, ale kompleksowym ucieleśnieniem podstawowej filozofii projektowania, głębokiego zrozumienia architektury, współpracy oprogramowania i sprzętu oraz kontroli systemu. A równoległość wewnątrz łańcucha może być ostatecznym polem bitwy w tej długotrwałej wojnie.
3. Wykres klasyfikacji obliczeń równoległych: pięć ścieżek od konta do instrukcji
W kontekście ciągłej ewolucji technologii skalowania blockchain, przetwarzanie równoległe stopniowo stało się główną ścieżką do przełomowych odkryć w zakresie wydajności. W odróżnieniu od poziomego rozprzęgania warstwy struktury, warstwy sieciowej lub warstwy dostępności danych, przetwarzanie równoległe to głębokie wydobycie w warstwie wykonawczej, które jest związane z najniższą logiką wydajności operacyjnej łańcucha bloków i określa szybkość odpowiedzi i zdolność przetwarzania systemu blockchain w obliczu wysokiej współbieżności i wielotypowych złożonych transakcji. Wychodząc od modelu wykonawczego i dokonując przeglądu rozwoju tej linii technologicznej, możemy uporządkować przejrzystą mapę klasyfikacyjną obliczeń równoległych, którą można z grubsza podzielić na pięć ścieżek technicznych: równoległość na poziomie konta, równoległość na poziomie obiektu, równoległość na poziomie transakcji, równoległość na poziomie maszyny wirtualnej i równoległość na poziomie instrukcji. Te pięć typów ścieżek, od gruboziarnistych do drobnoziarnistych, to nie tylko ciągły proces udoskonalania logiki równoległej, ale także ścieżka rosnącej złożoności systemu i trudności w planowaniu.
Najwcześniejszym równoległym poziomem konta jest paradygmat reprezentowany przez Solana. Model ten opiera się na projekcie rozdzielenia konta i stanu i określa, czy istnieje relacja powodująca konflikt, poprzez statyczną analizę zestawu kont zaangażowanych w transakcję. Jeśli dwie transakcje uzyskują dostęp do zestawu kont, które nie nakładają się na siebie, mogą być wykonywane jednocześnie na wielu rdzeniach. Mechanizm ten jest idealny do radzenia sobie z dobrze ustrukturyzowanymi transakcjami z jasnymi danymi wejściowymi i wyjściowymi, szczególnie w przypadku programów o przewidywalnych ścieżkach, takich jak DeFi. Jednak jego naturalnym założeniem jest to, że dostęp do konta jest przewidywalny, a zależność od stanu można wywnioskować statycznie, co czyni go podatnym na konserwatywne wykonywanie i zmniejszoną równoległość w obliczu złożonych inteligentnych kontraktów (takich jak dynamiczne zachowania, takie jak gry łańcuchowe i agenci AI). Ponadto wzajemna zależność między rachunkami sprawia również, że równoległe zwroty są poważnie osłabione w niektórych scenariuszach handlu o wysokiej częstotliwości. Czas działania Solany jest wysoce zoptymalizowany pod tym względem, ale jego podstawowa strategia planowania jest nadal ograniczona przez stopień szczegółowości konta.
Dalsze doprecyzowanie w oparciu o model konta, wchodzimy w techniczny poziom równoległości na poziomie obiektu. Równoległość na poziomie obiektu wprowadza semantyczną abstrakcję zasobów i modułów, z jednoczesnym planowaniem w bardziej szczegółowych jednostkach "obiektów stanu". Aptos i Sui są ważnymi badaczami w tym kierunku, zwłaszcza ten drugi, który definiuje własność i zmienność zasobów w czasie kompilacji za pomocą liniowego systemu typów języka Move, umożliwiając środowisku wykonawczemu precyzyjną kontrolę konfliktów dostępu do zasobów. W porównaniu z równoległością na poziomie konta ta metoda jest bardziej wszechstronna i skalowalna, może obejmować bardziej złożoną logikę odczytu i zapisu stanu oraz naturalnie obsługuje wysoce heterogeniczne scenariusze, takie jak gry, sieci społecznościowe i sztuczna inteligencja. Jednak równoległość na poziomie obiektu wprowadza również większe bariery językowe i złożoność programowania, a Move nie jest bezpośrednim zamiennikiem Solidity, a wysoki koszt ekologicznego przełączania ogranicza popularność jego równoległego paradygmatu.
Dalszy równoległość na poziomie transakcji to kierunek, w którym podąża nowa generacja wysokowydajnych łańcuchów reprezentowanych przez Monad, Sei i Fuel. Zamiast traktować stany lub konta jako najmniejszą jednostkę równoległości, ścieżka jest budowana wokół wykresu zależności wokół całej transakcji. Traktuje transakcje jako niepodzielne jednostki operacji, tworzy wykresy transakcji (grupy DAG transakcji) za pomocą analizy statycznej lub dynamicznej i opiera się na harmonogramach do współbieżnego wykonywania przepływów. Taka konstrukcja pozwala systemowi zmaksymalizować równoległość wydobycia bez konieczności pełnego zrozumienia podstawowej struktury stanu. Monad jest szczególnie przyciągający wzrok, łącząc nowoczesne technologie silnika bazy danych, takie jak Optimistic Concurrency Control (OCC), równoległe planowanie potoków i wykonywanie poza kolejnością, zbliżając wykonywanie łańcucha do paradygmatu "harmonogramu GPU". W praktyce mechanizm ten wymaga niezwykle złożonych menedżerów zależności i detektorów konfliktów, a wąskim gardłem może stać się również sam scheduler, ale jego potencjalna przepustowość jest znacznie wyższa niż modelu konta czy obiektu, co czyni go najbardziej teoretyczną siłą w obecnej ścieżce obliczeń równoległych.
Z drugiej strony równoległość na poziomie maszyny wirtualnej osadza możliwości współbieżnego wykonywania bezpośrednio w podstawowej logice planowania instrukcji maszyny wirtualnej, dążąc do całkowitego przełamania nieodłącznych ograniczeń wykonywania sekwencji EVM. Jako "eksperyment z super maszyną wirtualną" w ekosystemie Ethereum, MegaETH próbuje przeprojektować EVM, aby obsługiwał wielowątkowe jednoczesne wykonywanie kodu inteligentnych kontraktów. Warstwa podstawowa umożliwia każdemu kontraktowi niezależne uruchamianie w różnych kontekstach wykonywania za pomocą mechanizmów, takich jak wykonywanie segmentowane, segmentacja stanu i wywołanie asynchroniczne, a także zapewnia ostateczną spójność za pomocą warstwy synchronizacji równoległej. Najtrudniejszą częścią tego podejścia jest to, że musi ono być w pełni kompatybilne z istniejącą semantyką zachowań EVM, a jednocześnie przekształcać całe środowisko wykonawcze i mechanizm gazowy, aby płynnie migrować ekosystem Solidity do równoległego frameworka. Wyzwaniem jest nie tylko głębokość stosu technologicznego, ale także akceptacja znaczących zmian w strukturze politycznej L1 Ethereum. Ale jeśli się powiedzie, MegaETH zapowiada się na "rewolucję procesorów wielordzeniowych" w przestrzeni EVM.
Ostatnim typem ścieżki jest równoległość na poziomie instrukcji, która jest najbardziej szczegółowa i ma najwyższy próg techniczny. Pomysł wywodzi się z potoków wykonywania i instrukcji po zakończeniu w nowoczesnej konstrukcji procesora. Paradygmat ten twierdzi, że ponieważ każdy inteligentny kontrakt jest ostatecznie kompilowany do instrukcji kodu bajtowego, całkowicie możliwe jest zaplanowanie i przeanalizowanie każdej operacji oraz równoległe przegrupowanie jej w taki sam sposób, w jaki procesor wykonuje zestaw instrukcji x86. Zespół Fuel początkowo wprowadził w swoim FuelVM model wykonywania na poziomie instrukcji, a w dłuższej perspektywie, gdy silnik wykonawczy blockchain zaimplementuje predykcyjne wykonywanie i dynamiczne przegrupowanie zależnych od instrukcji, jego równoległość osiągnie teoretyczny limit. Takie podejście może nawet przenieść wspólne projektowanie blockchain-hardware na zupełnie nowy poziom, czyniąc łańcuch prawdziwym "zdecentralizowanym komputerem", a nie tylko "rozproszoną księgą". Oczywiście ta ścieżka jest jeszcze w fazie teoretycznej i eksperymentalnej, a odpowiednie schedulery i mechanizmy weryfikacji bezpieczeństwa nie są jeszcze dojrzałe, ale wskazują na ostateczną granicę przyszłości obliczeń równoległych.
Podsumowując, pięć ścieżek konta, obiektu, transakcji, maszyny wirtualnej i instrukcji stanowi spektrum rozwoju wewnątrzłańcuchowych obliczeń równoległych, od statycznej struktury danych po dynamiczny mechanizm planowania, od przewidywania dostępu do stanu po reorganizację na poziomie instrukcji, każdy krok technologii równoległej oznacza znaczny wzrost złożoności systemu i progu rozwoju. Ale jednocześnie oznaczają one również zmianę paradygmatu w modelu obliczeniowym blockchain, od tradycyjnego rejestru konsensusu pełnej sekwencji do wysokowydajnego, przewidywalnego i dyspozycyjnego rozproszonego środowiska wykonawczego. Jest to nie tylko nadrobienie zaległości w zakresie wydajności przetwarzania w chmurze Web2, ale także głęboka koncepcja ostatecznej formy "komputera blockchain". Wybór równoległych ścieżek dla różnych łańcuchów publicznych określi również limit nośny ich przyszłych ekosystemów aplikacji, a także ich podstawową konkurencyjność w scenariuszach takich jak AI Agent, gry łańcuchowe i handel on-chain o wysokiej częstotliwości.
Po czwarte, wyjaśnione są dwie główne ścieżki: Monad vs MegaETH
Spośród wielu ścieżek ewolucji obliczeń równoległych, dwie główne ścieżki techniczne o największym skupieniu, najwyższym głosie i najbardziej kompletnej narracji na obecnym rynku to bez wątpienia "budowanie równoległego łańcucha obliczeniowego od podstaw" reprezentowane przez Monad oraz "równoległa rewolucja w EVM" reprezentowana przez MegaETH. Te dwa są nie tylko najbardziej intensywnymi kierunkami badawczo-rozwojowymi dla obecnych prymitywnych inżynierów kryptograficznych, ale także najbardziej decydującymi symbolami biegunowymi w obecnym wyścigu wydajności komputerów Web3. Różnica między nimi polega nie tylko na punkcie wyjścia i stylu architektury technicznej, ale także na obiektach ekologicznych, którym służą, kosztach migracji, filozofii realizacji i przyszłej ścieżce strategicznej, która za nimi stoi. Reprezentują one równoległą konkurencję paradygmatu między "rekonstrukcjonizmem" a "kompatybilnizmem" i głęboko wpłynęły na wyobrażenia rynku o ostatecznej formie łańcuchów o wysokiej wydajności.
Monad jest na wskroś "fundamentalistą obliczeniowym", a jego filozofia projektowania nie jest zaprojektowana tak, aby była kompatybilna z istniejącymi EVM, ale raczej aby na nowo zdefiniować sposób, w jaki silniki wykonawcze blockchain działają pod maską, czerpiąc inspirację z nowoczesnych baz danych i wysokowydajnych systemów wielordzeniowych. Jego podstawowy system technologiczny opiera się na dojrzałych mechanizmach w dziedzinie baz danych, takich jak optymistyczna kontrola współbieżności, planowanie transakcji DAG, wykonywanie poza kolejnością i wykonywanie potokowe, mające na celu zwiększenie wydajności przetwarzania transakcji w łańcuchu do rzędu milionów TPS. W architekturze Monad wykonywanie i porządkowanie transakcji jest całkowicie rozłączone, a system najpierw buduje wykres zależności transakcji, a następnie przekazuje go do harmonogramu w celu równoległego wykonania. Wszystkie transakcje są traktowane jako niepodzielne jednostki transakcji, z jawnymi zestawami odczytu i zapisu oraz migawkami stanu, a harmonogramy są wykonywane optymistycznie na podstawie wykresów zależności, wycofując się i ponownie wykonując, gdy wystąpią konflikty. Mechanizm ten jest niezwykle złożony pod względem implementacji technicznej, wymagający budowy stosu wykonawczego podobnego do tego, jaki posiada nowoczesny menedżer transakcji bazy danych, a także wprowadzenia mechanizmów takich jak buforowanie wielopoziomowe, pobieranie z wyprzedzeniem, walidacja równoległa itp., w celu kompresji opóźnienia zatwierdzenia stanu końcowego, ale teoretycznie może przesunąć granicę przepustowości do wysokości, których nie wyobraża sobie obecny łańcuch.
Co ważniejsze, Monad nie zrezygnował z interoperacyjności z EVM. Wykorzystuje warstwę pośrednią podobną do "Solidity-Compatible Intermediate Language", aby wspierać programistów w pisaniu kontraktów w składni Solidity, a jednocześnie przeprowadzać optymalizację języka pośredniego i planowanie równoległości w silniku wykonawczym. Ta strategia projektowania polegająca na "kompatybilności powierzchniowej i refaktoryzacji dna" nie tylko zachowuje przyjazność ekologicznych deweloperów Ethereum, ale także w największym stopniu uwalnia podstawowy potencjał wykonawczy, co jest typową strategią techniczną polegającą na "połykaniu EVM, a następnie jego dekonstrukcji". Oznacza to również, że po uruchomieniu Monad stanie się nie tylko suwerennym łańcuchem o ekstremalnej wydajności, ale także idealną warstwą wykonawczą dla sieci rollupowych warstwy 2, a nawet "podłączanym rdzeniem o wysokiej wydajności" dla innych modułów wykonawczych łańcucha w dłuższej perspektywie. Z tego punktu widzenia Monad to nie tylko droga techniczna, ale także nowa logika projektowania suwerenności systemu, która opowiada się za "modularyzacją, wydajnością i możliwością ponownego wykorzystania" warstwy wykonawczej, aby stworzyć nowy standard dla międzyłańcuchowego przetwarzania zespołowego.
W przeciwieństwie do stanowiska Monada w sprawie "nowego budowniczego świata", MegaETH jest zupełnie odwrotnym typem projektu, który decyduje się na start od istniejącego świata Ethereum i osiągnięcie znacznego wzrostu wydajności realizacji przy minimalnych kosztach zmian. MegaETH nie wywraca do góry nogami specyfikacji EVM, ale raczej stara się wbudować moc obliczeń równoległych w silnik wykonawczy istniejącego EVM, tworząc przyszłą wersję "wielordzeniowego EVM". Uzasadnieniem jest całkowita refaktoryzacja obecnego modelu wykonywania instrukcji EVM z takimi możliwościami, jak izolacja na poziomie wątku, asynchroniczne wykonywanie na poziomie kontraktu i wykrywanie konfliktów dostępu do stanu, co pozwala wielu inteligentnym kontraktom działać jednocześnie w tym samym bloku i ostatecznie scalać zmiany stanu. Model ten wymaga od programistów osiągnięcia znacznego wzrostu wydajności z tego samego kontraktu wdrożonego w łańcuchu MegaETH bez zmiany istniejących kontraktów Solidity, przy użyciu nowych języków lub łańcuchów narzędzi. Ta ścieżka "konserwatywnej rewolucji" jest niezwykle atrakcyjna, szczególnie dla ekosystemu Ethereum L2, ponieważ stanowi idealną ścieżkę do bezbolesnych ulepszeń wydajności bez konieczności migracji składni.
Główny przełom w MegaETH polega na wielowątkowym mechanizmie planowania maszyn wirtualnych. Tradycyjne EVM wykorzystują stosowy, jednowątkowy model wykonywania, w którym każda instrukcja jest wykonywana liniowo, a aktualizacje stanu muszą odbywać się synchronicznie. MegaETH przełamuje ten wzorzec i wprowadza asynchroniczny stos wywołań i mechanizm izolacji kontekstu wykonywania, tak aby osiągnąć jednoczesne wykonywanie "współbieżnych kontekstów EVM". Każdy kontrakt może wywoływać własną logikę w osobnym wątku, a wszystkie wątki będą jednolicie wykrywać i zbieżne stan za pośrednictwem równoległej warstwy zatwierdzania, gdy stan zostanie ostatecznie przesłany. Mechanizm ten jest bardzo podobny do wielowątkowego modelu JavaScript nowoczesnych przeglądarek (Web Workers + Shared Memory + Lock-Free Data), który zachowuje determinizm zachowania głównego wątku i wprowadza wysokowydajny mechanizm planowania, który jest asynchroniczny w tle. W praktyce projekt ten jest również niezwykle przyjazny dla budowniczych bloków i wyszukiwarek, a także może optymalizować sortowanie Mempool i ścieżki przechwytywania MEV zgodnie ze strategiami równoległymi, tworząc zamkniętą pętlę korzyści ekonomicznych w warstwie wykonawczej.
Co ważniejsze, MegaETH decyduje się na głębokie powiązanie z ekosystemem Ethereum, a jego głównym miejscem lądowania w przyszłości będzie prawdopodobnie sieć EVM L2 Rollup, taka jak łańcuch Optimism, Base lub Arbitrum Orbit. Po przyjęciu na dużą skalę, może osiągnąć prawie 100-krotną poprawę wydajności w stosunku do istniejącego stosu technologicznego Ethereum bez zmiany semantyki kontraktów, modelu stanu, logiki gazu, metod wywoływania itp., co czyni go atrakcyjnym kierunkiem modernizacji technologii dla konserwatystów EVM. Paradygmat MegaETH jest następujący: tak długo, jak nadal robisz rzeczy na Ethereum, pozwolę, aby Twoja wydajność obliczeniowa gwałtownie wzrosła. Z punktu widzenia realizmu i inżynierii jest łatwiejszy do wdrożenia niż Monad i jest bardziej zgodny z iteracyjną ścieżką głównych projektów DeFi i NFT, co czyni go kandydatem do wsparcia ekologicznego w perspektywie krótkoterminowej.
W pewnym sensie dwie trasy Monad i MegaETH to nie tylko dwie implementacje równoległych ścieżek technologicznych, ale także klasyczna konfrontacja między "refaktoryzacją" a "kompatybilnością" na ścieżce rozwoju blockchain: pierwsza z nich dąży do przełomu w paradygmacie i rekonstruuje całą logikę od maszyn wirtualnych po leżące u podstaw zarządzanie stanem, aby osiągnąć najwyższą wydajność i plastyczność architektoniczną; Ten ostatni dąży do stopniowej optymalizacji, popychając tradycyjne systemy do granic możliwości, jednocześnie respektując istniejące ograniczenia ekologiczne, minimalizując w ten sposób koszty migracji. Nie ma między nimi absolutnych zalet ani wad, ale służą one różnym grupom programistów i wizjom ekosystemu. Monad jest bardziej odpowiedni do budowania nowych systemów od podstaw, gier łańcuchowych, które dążą do ekstremalnej przepustowości, agentów AI i modułowych łańcuchów wykonawczych. Z drugiej strony MegaETH jest bardziej odpowiedni dla projektów L2, projektów DeFi i protokołów infrastrukturalnych, które chcą osiągnąć wzrost wydajności przy minimalnych zmianach w rozwoju.
Są jak pociągi dużych prędkości na nowym torze, przedefiniowane z toru, sieci energetycznej na karoserię, tylko po to, aby osiągnąć niespotykaną prędkość i doświadczenie; Innym przykładem jest instalowanie turbin na istniejących autostradach, poprawa harmonogramu pasów ruchu i konstrukcji silnika, dzięki czemu pojazdy mogą jechać szybciej bez opuszczania znanej sieci drogowej. Oba mogą skończyć się w ten sam sposób: w następnej fazie modułowych architektur blockchain, Monad może stać się modułem "egzekucji jako usługi" dla Rollupów, a MegaETH może stać się wtyczką przyspieszającą wydajność dla głównych L2. Te dwa elementy mogą ostatecznie się zjednoczyć, tworząc dwa skrzydła wysokowydajnego silnika wykonawczego rozproszonego w przyszłym świecie Web3.
5. Przyszłe możliwości i wyzwania związane z obliczeniami równoległymi
W miarę jak przetwarzanie równoległe przechodzi od projektowania opartego na dokumentach papierowych do wdrażania on-chain, potencjał, który odblokowuje, staje się coraz bardziej konkretny i mierzalny. Z jednej strony zaobserwowaliśmy, że nowe paradygmaty rozwoju i modele biznesowe zaczęły na nowo definiować "wydajność on-chain": bardziej złożona logika gier łańcuchowych, bardziej realistyczny cykl życia agenta AI, więcej protokołu wymiany danych w czasie rzeczywistym, bardziej wciągające interaktywne doświadczenie, a nawet system operacyjny Super App oparty na współpracy on-chain zmieniają się z "czy możemy to zrobić" na "jak dobrze możemy to zrobić". Z drugiej strony, tym, co naprawdę napędza przejście na przetwarzanie równoległe, jest nie tylko liniowa poprawa wydajności systemu, ale także strukturalna zmiana granic poznawczych programistów i kosztów migracji ekologicznej. Tak jak wprowadzenie przez Ethereum mechanizmu kontraktów Turing-complete dało początek wielowymiarowej eksplozji DeFi, NFT i DAO, tak "asynchroniczna rekonstrukcja między stanem a instrukcją" spowodowana przez obliczenia równoległe rodzi również nowy model świata on-chain, który jest nie tylko rewolucją w wydajności wykonania, ale także wylęgarnią innowacji w zakresie rozszczepienia w strukturze produktu.
Przede wszystkim, z perspektywy możliwości, najbardziej bezpośrednią korzyścią jest "podniesienie pułapu aplikacji". Większość obecnych aplikacji DeFi, gier i aplikacji społecznościowych jest ograniczona przez wąskie gardła stanowe, koszty gazu i opóźnienia i nie może naprawdę przenosić interakcji o wysokiej częstotliwości w łańcuchu na dużą skalę. Biorąc za przykład gry łańcuchowe, GameFi z rzeczywistym sprzężeniem zwrotnym ruchu, synchronizacją zachowań o wysokiej częstotliwości i logiką walki w czasie rzeczywistym prawie nie istnieje, ponieważ liniowe wykonanie tradycyjnego EVM nie może obsługiwać transmisyjnego potwierdzania dziesiątek zmian stanu na sekundę. Dzięki wsparciu obliczeń równoległych, poprzez mechanizmy takie jak DAG transakcyjne i konteksty asynchroniczne na poziomie kontraktu, można konstruować łańcuchy o wysokiej współbieżności, a deterministyczne wyniki wykonywania można zagwarantować poprzez spójność migawek, aby osiągnąć strukturalny przełom w "silniku gier on-chain". Podobnie, wdrażanie i obsługa agentów AI również zostanie znacznie ulepszone dzięki przetwarzaniu równoległemu. W przeszłości mieliśmy tendencję do uruchamiania agentów AI poza łańcuchem i przesyłania wyników ich zachowań tylko do kontraktów on-chain, ale w przyszłości on-chain może obsługiwać asynchroniczną współpracę i udostępnianie stanów między wieloma podmiotami AI poprzez równoległe planowanie transakcji, aby naprawdę zrealizować autonomiczną logikę agenta w łańcuchu w czasie rzeczywistym. Obliczenia równoległe będą infrastrukturą dla tego "kontraktu opartego na zachowaniu", napędzając Web3 z "transakcji jako aktywa" do nowego świata "interakcji jako agenta".
Po drugie, łańcuch narzędzi programistycznych i warstwa abstrakcji maszyn wirtualnych również zostały strukturalnie przekształcone ze względu na równoległość. Tradycyjny paradygmat rozwoju Solidity opiera się na modelu myślenia szeregowego, w którym programiści są przyzwyczajeni do projektowania logiki jako jednowątkowej zmiany stanu, ale w architekturach obliczeń równoległych programiści będą zmuszeni do myślenia o konfliktach zestawów odczytu/zapisu, zasadach izolacji stanu, nieotomności transakcji, a nawet wprowadzaniu wzorców architektonicznych opartych na kolejkach komunikatów lub potokach stanów. Ten skok w strukturze kognitywnej doprowadził również do szybkiego rozwoju nowej generacji łańcuchów narzędziowych. Na przykład równoległe ramy inteligentnych kontraktów, które obsługują deklaracje zależności transakcyjnych, kompilatory optymalizacyjne oparte na IR i współbieżne debuggery, które obsługują symulację migawek transakcji, staną się siedliskiem eksplozji infrastruktury w nowym cyklu. Jednocześnie ciągła ewolucja modułowych blockchainów przyniosła również doskonałą ścieżkę docelową dla obliczeń równoległych: Monad może zostać wstawiona do L2 Rollup jako moduł wykonawczy, MegaETH może być wdrożony jako zamiennik EVM dla głównych łańcuchów, Celestia zapewnia obsługę warstwy dostępności danych, a EigenLayer zapewnia zdecentralizowaną sieć walidatorów, tworząc w ten sposób wysokowydajną zintegrowaną architekturę od danych bazowych do logiki wykonania.
Jednak postęp w dziedzinie obliczeń równoległych nie jest łatwą drogą, a wyzwania są jeszcze bardziej strukturalne i trudne do pokonania niż możliwości. Z jednej strony podstawowe trudności techniczne leżą w "gwarancji spójności współbieżności stanów" i "strategii radzenia sobie z konfliktami transakcji". W przeciwieństwie do baz danych poza łańcuchem, on-chain nie może tolerować arbitralnego stopnia wycofywania transakcji lub wycofywania stanu, a wszelkie konflikty wykonania muszą być modelowane z wyprzedzeniem lub precyzyjnie kontrolowane podczas zdarzenia. Oznacza to, że harmonogram równoległy musi mieć silne możliwości konstruowania wykresów zależności i przewidywania konfliktów, a jednocześnie zaprojektować wydajny mechanizm odporności na błędy wykonania optymistycznego, w przeciwnym razie system jest podatny na "burzę ponawiania prób jednoczesnych awarii" pod dużym obciążeniem, które nie tylko wzrasta, ale maleje, a nawet powoduje niestabilność łańcucha. Co więcej, obecny model bezpieczeństwa wielowątkowego środowiska wykonawczego nie został jeszcze w pełni ustalony, taki jak precyzja mechanizmu izolacji stanów między wątkami, nowe wykorzystanie ataków re-entrancy w kontekstach asynchronicznych oraz eksplozja gazu w krzyżowych wywołaniach kontraktów, z których wszystkie są nowymi problemami, które należy rozwiązać.
Bardziej podstępne wyzwania wynikają z aspektów ekologicznych i psychologicznych. To, czy programiści są skłonni do migracji do nowego paradygmatu, czy są w stanie opanować metody projektowania modeli równoległych i czy są skłonni zrezygnować z części czytelności i audytowalności kontraktowej na rzecz korzyści w zakresie wydajności, jest kluczem do tego, czy obliczenia równoległe mogą tworzyć potencjalną energię ekologiczną. W ciągu ostatnich kilku lat widzieliśmy, jak wiele łańcuchów o doskonałej wydajności, ale pozbawionych wsparcia programistów, stopniowo milknie, takich jak NEAR, Avalanche, a nawet niektóre łańcuchy Cosmos SDK o znacznie lepszej wydajności niż EVM, a ich doświadczenie przypomina nam, że bez programistów nie ma ekosystemu; Bez ekologii, bez względu na to, jak dobre są osiągi, jest to po prostu zamek w powietrzu. W związku z tym projekty obliczeń równoległych powinny nie tylko tworzyć najsilniejszy silnik, ale także najłagodniejszą ścieżkę przejścia ekologicznego, tak aby "wydajność była gotowa do użycia", a nie "wydajność była progiem poznawczym".
Ostatecznie przyszłość obliczeń równoległych jest zarówno triumfem inżynierii systemów, jak i testem dla ekoprojektowania. Zmusi nas to do ponownego zastanowienia się nad tym, "co jest istotą łańcucha": czy jest to zdecentralizowana maszyna rozliczeniowa, czy globalnie rozproszony koordynator stanu w czasie rzeczywistym? Jeśli tak jest w drugim przypadku, to możliwości przepustowości stanu, współbieżności transakcji i responsywności kontraktów, które wcześniej były uważane za "szczegóły techniczne łańcucha", ostatecznie staną się podstawowymi wskaźnikami definiującymi wartość łańcucha. Paradygmat obliczeń równoległych, który naprawdę zakończy tę transformację, stanie się również najbardziej podstawowym i najbardziej złożonym prymitywem infrastruktury w tym nowym cyklu, a jego wpływ będzie wykraczał daleko poza moduł techniczny i może stanowić punkt zwrotny w ogólnym paradygmacie obliczeniowym Web3.
6. Wniosek: Czy przetwarzanie równoległe jest najlepszą ścieżką do natywnego skalowania Web3?
Spośród wszystkich ścieżek, które badają granice wydajności Web3, przetwarzanie równoległe nie jest najłatwiejsze do wdrożenia, ale może być najbliższe istocie blockchaina. Nie migruje poza łańcuch, ani nie poświęca decentralizacji w zamian za przepustowość, ale stara się zrekonstruować sam model wykonawczy w atomowości i determinizmie łańcucha, od warstwy transakcji, warstwy kontraktów i warstwy maszyn wirtualnych do źródła wąskiego gardła wydajności. Ta "natywna dla łańcucha" metoda skalowania nie tylko zachowuje podstawowy model zaufania blockchaina, ale także rezerwuje zrównoważoną glebę wydajności dla bardziej złożonych aplikacji on-chain w przyszłości. Jego trudność tkwi w strukturze, a jego urok tkwi w strukturze. Jeśli refaktoryzacja modułowa jest "architekturą łańcucha", to refaktoryzacja obliczeń równoległych jest "duszą łańcucha". Być może nie jest to droga na skróty do odprawy celnej, ale prawdopodobnie będzie to jedyne trwałe pozytywne rozwiązanie w długoterminowej ewolucji Web3. Jesteśmy świadkami przejścia architektury od procesorów jednordzeniowych do wielordzeniowych/wielowątkowych systemów operacyjnych, a pojawienie się natywnych dla Web3 systemów operacyjnych może być ukryte w tych równoległych eksperymentach w łańcuchu.
Pokaż oryginał
Społeczności