NEO
NEO

Cena NEO

$5,9050
-$0,02700
(-0,46%)
Zmiana ceny w ciągu ostatnich 24 godzin
USDUSD
Jak się dzisiaj czujesz w związku z NEO?
Podziel się swoimi odczuciami tutaj, dając kciuk w górę, jeśli czujesz wzrost w związku z monetą, lub kciuk w dół, jeśli czujesz spadek.
Głosuj, aby wyświetlić wyniki
Rozpocznij przygodę z kryptowalutami
Rozpocznij przygodę z kryptowalutami
Szybsza, lepsza, silniejsza niż przeciętna giełda kryptowalut.

Zastrzeżenie

Treści społecznościowe na tej stronie („Treści”), w tym między innymi tweety i statystyki dostarczane przez LunarCrush, pochodzą od stron trzecich i są dostarczane „tak jak są” wyłącznie w celach informacyjnych. OKX nie gwarantuje jakości ani dokładności Treści, a Treści nie reprezentują poglądów OKX. Nie mają one na celu (i) doradztwa inwestycyjnego lub rekomendacji; (ii) oferty lub zachęty do kupna, sprzedaży lub posiadania aktywów cyfrowych; lub (iii) doradztwa finansowego, księgowego, prawnego lub podatkowego. Aktywa cyfrowe, w tym stablecoiny i NFT, wiążą się z wysokim stopniem ryzyka i mogą podlegać znacznym wahaniom. Cena i wyniki aktywów cyfrowych nie są gwarantowane i mogą ulec zmianie bez powiadomienia.

OKX nie udziela rekomendacji dotyczących inwestycji ani aktywów. Musisz dokładnie rozważyć, czy handel lub posiadanie aktywów cyfrowych jest dla Ciebie odpowiednie w świetle Twojej sytuacji finansowej. W przypadku pytań dotyczących konkretnej sytuacji skonsultuj się ze swoim doradcą prawnym, podatkowym lub specjalistą ds. inwestycji. Aby uzyskać więcej informacji, zapoznaj się z warunkami użytkowania i ostrzeżeniem o ryzyku. Korzystając z witryny internetowej strony trzeciej („TWP”), akceptujesz, że wszelkie korzystanie z TPW będzie podlegać warunkom TPW i będzie regulowane przez te warunki. O ile nie zostało to wyraźnie określone na piśmie, OKX i jego podmioty stowarzyszone („OKX”) nie są w żaden sposób powiązane z właścicielem lub operatorem TPW. Zgadzasz się, że OKX nie ponosi odpowiedzialności za jakiekolwiek straty, szkody i inne konsekwencje wynikające z korzystania z TPW. Pamiętaj, że korzystanie z TPW może spowodować utratę lub zmniejszenie Twoich aktywów. Produkt może nie być dostępny we wszystkich jurysdykcjach.

Informacje o rynku NEO

Kapitalizacja rynkowa
Kapitalizacja rynkowa jest obliczana poprzez pomnożenie podaży w obiegu monety przez ostatnią cenę.
Kapitalizacja rynkowa = Podaż w obiegu × Ostatnia cena
Podaż w obiegu
Całkowita ilość monet publicznie dostępnych na rynku.
Ranking kapitalizacji rynkowej
Ranking monety pod względem wartości kapitalizacji rynkowej.
Najwyższa w historii
Najwyższa cena, jaką moneta osiągnęła w swojej historii transakcji.
Najniższa w historii
Najniższa cena, jaką moneta osiągnęła w swojej historii transakcji.
Kapitalizacja rynkowa
$415,70M
Podaż w obiegu
70 530 000 NEO
70,53% z
100 000 000 NEO
Ranking kapitalizacji rynkowej
--
Audyty
CertiK
Ostatni audyt: 3 cze 2021, (UTC+8)
Najwyższa cena w ciągu 24 godz.
$5,9620
Najniższa cena w ciągu 24 godz.
$5,7180
Najwyższa w historii
$188,00
-96,86% (-$182,10)
Ostatnia aktualizacja: 16 sty 2018, (UTC+8)
Najniższa w historii
$3,9000
+51,41% (+$2,0050)
Ostatnia aktualizacja: 13 mar 2020, (UTC+8)
Następująca zawartość pochodzi z .
Mario Nawfal
Mario Nawfal
ROBOTY PRZYJEŻDŻAJĄ DO TWOJEGO OGRODU - I NIE POTRZEBUJĄ NAWET CIENIA Norweski 1X Technologies NEO to humanoidalny robot zbudowany tak, aby poradzić sobie z katorżniczą pracą na podwórku bez przekształcania go w miejsce zbrodni. Poradzi sobie z brudną robotą - bez reklamacji, bez pęknięć, bez pęcherzy. Wszystko, czego teraz potrzebuje, to zgoda organów regulacyjnych, a weekendowa harówka w ogrodzie staje się w pełni opcjonalna. Przepraszam, zielone kciuki - przyszłość się nie poci. Źródło: Przewodnik z przydatnymi wskazówkami
Pokaż oryginał
29,14 tys.
34
PANews
PANews
1. Wprowadzenie: Ekspansja jest wieczną propozycją, a równoległość jest ostatecznym polem bitwy Od narodzin Bitcoina, system blockchain zawsze borykał się z nieuniknionym podstawowym problemem: skalowaniem. Bitcoin przetwarza mniej niż 10 transakcji na sekundę, a Ethereum ma trudności z przebiciem się przez wąskie gardło wydajności dziesiątek TPS (transakcji na sekundę), co jest szczególnie uciążliwe w tradycyjnym świecie Web2, który często wynosi dziesiątki tysięcy TPS. Co ważniejsze, nie jest to prosty problem, który można rozwiązać poprzez "dodawanie serwerów", ale ograniczenie systemowe głęboko osadzone w podstawowym konsensusie i projekcie strukturalnym blockchaina - czyli niemożliwym trójkącie łańcucha bloków, w którym nie można połączyć "decentralizacji, bezpieczeństwa i skalowalności". W ciągu ostatniej dekady byliśmy świadkami niezliczonych prób ekspansji, które wznosiły się i upadały. Od wojny o skalowanie Bitcoina po wizję shardingu Ethereum, od kanałów stanowych i plazmy po rollupy i modułowe blockchainy, od realizacji poza łańcuchem w warstwie 2 po strukturalną refaktoryzację dostępności danych, cała branża wkroczyła na ścieżkę skalowania pełną inżynieryjnej wyobraźni. Jako najszerzej akceptowany paradygmat skalowania, rollup osiągnął cel, jakim jest znaczne zwiększenie TPS przy jednoczesnym zmniejszeniu obciążenia wykonawczego głównego łańcucha i zachowaniu bezpieczeństwa Ethereum. Nie dotyka to jednak prawdziwych granic leżącej u podstaw blockchaina "wydajności pojedynczego łańcucha", zwłaszcza na poziomie wykonania, który jest przepustowością samego bloku – jest nadal ograniczony przez starożytny paradygmat przetwarzania obliczeń szeregowych w łańcuchu. Z tego powodu przetwarzanie równoległe w łańcuchu stopniowo wkroczyło w pole widzenia branży. W odróżnieniu od skalowania poza łańcuchem i dystrybucji międzyłańcuchowej, równoległość wewnątrz łańcucha próbuje całkowicie zrekonstruować silnik wykonawczy przy zachowaniu atomowości pojedynczego łańcucha i zintegrowanej struktury, a także aktualizuje blockchain z jednowątkowego trybu "szeregowego wykonywania jednej transakcji po jednej" do systemu obliczeniowego o wysokiej współbieżności "wielowątkowość + potok + planowanie zależności" pod kierunkiem nowoczesnego systemu operacyjnego i projektu procesora. Taka ścieżka może nie tylko osiągnąć stukrotny wzrost przepustowości, ale także może stać się kluczowym warunkiem wstępnym dla eksplozji aplikacji inteligentnych kontraktów. W rzeczywistości w paradygmacie obliczeń Web2 przetwarzanie jednowątkowe już dawno zostało wyeliminowane przez nowoczesne architektury sprzętowe i zastąpione przez niekończący się strumień modeli optymalizacji, takich jak programowanie równoległe, planowanie asynchroniczne, pule wątków i mikrousługi. Blockchain, jako bardziej prymitywny i konserwatywny system obliczeniowy o niezwykle wysokich wymaganiach dotyczących pewności i weryfikowalności, nigdy nie był w stanie w pełni wykorzystać tych pomysłów na obliczenia równoległe. Jest to zarówno ograniczenie, jak i szansa. Nowe łańcuchy, takie jak Solana, Sui i Aptos, są pierwszymi, które rozpoczynają tę eksplorację, wprowadzając równoległość na poziomie architektury. Pojawiające się projekty, takie jak Monad i MegaETH, jeszcze bardziej podniosły równoległość on-chain do przełomów w głębokich mechanizmach, takich jak wykonywanie potoków, optymistyczna współbieżność i asynchroniczne sterowanie komunikatami, wykazując cechy, które coraz bardziej zbliżają się do nowoczesnych systemów operacyjnych. Można powiedzieć, że obliczenia równoległe to nie tylko "metoda optymalizacji wydajności", ale także punkt zwrotny w paradygmacie modelu wykonawczego blockchain. Rzuca wyzwanie podstawowym wzorcom realizacji inteligentnych kontraktów i na nowo definiuje podstawową logikę pakowania transakcji, dostępu do stanu, relacji połączeń i układu pamięci masowej. Jeśli rollup polega na "przenoszeniu transakcji do wykonania poza łańcuchem", to równoległość on-chain to "budowanie rdzeni superkomputerowych w łańcuchu", a jego celem nie jest po prostu poprawa przepustowości, ale zapewnienie prawdziwie zrównoważonego wsparcia infrastrukturalnego dla przyszłych natywnych aplikacji Web3 (handel o wysokiej częstotliwości, silniki gier, wykonywanie modeli AI, społecznościowe on-chain itp.). Po tym, jak ścieżka rollupu stopniowo dąży do jednorodności, równoległość wewnątrz łańcucha po cichu staje się decydującą zmienną nowego cyklu konkurencji warstwy 1. Wydajność to już nie tylko "szybsza maszyna", ale możliwość obsługi całego heterogenicznego świata aplikacji. To nie tylko wyścig techniczny, ale także walka o paradygmat. Następna generacja suwerennych platform wykonawczych w świecie Web3 prawdopodobnie wyłoni się z tych równoległych zapasów wewnątrz łańcucha. 2. Paradygmat panoramy ekspansji: pięć rodzajów tras, z których każda ma swój własny nacisk Rozbudowa zdolności produkcyjnych, jako jeden z najważniejszych, trwałych i najtrudniejszych tematów w ewolucji technologii łańcucha publicznego, doprowadziła do powstania i ewolucji prawie wszystkich głównych ścieżek technologicznych w ciągu ostatniej dekady. Zaczynając od bitwy o rozmiar bloku Bitcoina, ten techniczny konkurs na temat "jak przyspieszyć działanie łańcucha" ostatecznie podzielił się na pięć podstawowych tras, z których każda wcina się w wąskie gardło pod innym kątem, z własną filozofią techniczną, trudnością lądowania, modelem ryzyka i możliwymi do zastosowania scenariuszami. Pierwsza droga to najprostsze skalowanie on-chain, co oznacza zwiększenie rozmiaru bloku, skrócenie czasu bloku lub poprawę mocy obliczeniowej poprzez optymalizację struktury danych i mechanizmu konsensusu. Podejście to było przedmiotem debaty na temat skalowania Bitcoina, dając początek forkom "big block", takim jak BCH i BSV, a także wpływając na pomysły projektowe wczesnych, wysokowydajnych łańcuchów publicznych, takich jak EOS i NEO. Zaletą tego rodzaju trasy jest to, że zachowuje prostotę spójności pojedynczego łańcucha, która jest łatwa do zrozumienia i wdrożenia, ale bardzo łatwo jest również dotknąć systemowej górnej granicy, takiej jak ryzyko centralizacji, rosnące koszty operacyjne węzłów i zwiększona trudność synchronizacji, więc nie jest to już główne rozwiązanie rdzeniowe w dzisiejszym projekcie, ale stało się bardziej pomocniczą kolokacją innych mechanizmów. Drugim typem trasy jest skalowanie poza łańcuchem, które jest reprezentowane przez kanały stanów i łańcuchy boczne. Podstawową ideą tego typu ścieżki jest przeniesienie większości aktywności transakcyjnej poza łańcuch i zapisanie tylko końcowego wyniku do głównego łańcucha, który działa jako końcowa warstwa rozliczeniowa. Pod względem filozofii technicznej jest to bliskie asynchronicznej architekturze Web2 - staraj się pozostawić ciężkie przetwarzanie transakcji na peryferiach, a główny łańcuch przeprowadza minimalną zaufaną weryfikację. Chociaż idea ta może być teoretycznie nieskończenie skalowalna, model zaufania, bezpieczeństwo funduszy i złożoność interakcji transakcji poza łańcuchem ograniczają jej zastosowanie. Na przykład, chociaż Lightning Network ma jasne pozycjonowanie scenariuszy finansowych, skala ekosystemu nigdy nie eksplodowała. Jednak wiele projektów opartych na sidechainach, takich jak Polygon POS, nie tylko ma wysoką przepustowość, ale także ujawnia wady trudnego dziedziczenia bezpieczeństwa głównego łańcucha. Trzeci typ trasy to najpopularniejsza i najczęściej wdrażana trasa zbiorcza warstwy 2. Ta metoda nie zmienia bezpośrednio samego głównego łańcucha, ale skaluje się poprzez mechanizm realizacji poza łańcuchem i weryfikacji on-chain. Optimistic Rollup i ZK Rollup mają swoje zalety: ten pierwszy jest szybki do wdrożenia i wysoce kompatybilny, ale ma problemy z opóźnieniem w okresie kwestionowania i mechanizmem odpornym na oszustwa; Ten ostatni ma silne zabezpieczenia i dobre możliwości kompresji danych, ale jest skomplikowany do opracowania i brakuje mu kompatybilności z EVM. Bez względu na to, jaki to jest rodzaj rollupu, jego istotą jest outsourcing mocy wykonawczej, przy jednoczesnym zachowaniu danych i weryfikacji w głównym łańcuchu, osiągając względną równowagę między decentralizacją a wysoką wydajnością. Szybki rozwój projektów takich jak Arbitrum, Optimism, zkSync i StarkNet dowodzi wykonalności tej ścieżki, ale ujawnia również średnioterminowe wąskie gardła, takie jak nadmierne poleganie na dostępności danych (DA), wysokie koszty i fragmentaryczne doświadczenie w programowaniu. Czwartym rodzajem trasy jest modułowa architektura blockchain, która pojawiła się w ostatnich latach, taka jak Celestia, Avail, EigenLayer itp. Paradygmat modułowy opowiada się za całkowitym oddzieleniem podstawowych funkcji blockchaina - wykonywania, konsensusu, dostępności danych i rozliczeń - przez wiele wyspecjalizowanych łańcuchów w celu wykonania różnych funkcji, a następnie połączenia ich w skalowalną sieć za pomocą protokołu cross-chain. Duży wpływ na ten kierunek ma modułowa architektura systemu operacyjnego oraz koncepcja komponowalności chmury obliczeniowej, która ma tę zaletę, że umożliwia elastyczną wymianę komponentów systemu i znacznie poprawia wydajność w określonych obszarach, takich jak DA. Jednak wyzwania są również bardzo oczywiste: koszt synchronizacji, weryfikacji i wzajemnego zaufania między systemami po oddzieleniu modułów jest niezwykle wysoki, ekosystem programistów jest niezwykle rozdrobniony, a wymagania dotyczące średnio- i długoterminowych standardów protokołów i bezpieczeństwa cross-chain są znacznie wyższe niż w przypadku tradycyjnego projektowania łańcuchów. W istocie, model ten nie buduje już "łańcucha", ale buduje "sieć łańcuchową", co stanowi bezprecedensowy próg dla ogólnego zrozumienia architektury, obsługi i utrzymania. Ostatnim typem trasy, na którym skupi się późniejsza analiza w tym artykule, jest wewnątrzłańcuchowa ścieżka optymalizacji obliczeń równoległych. W przeciwieństwie do pierwszych czterech typów "podziału poziomego", które przeprowadzają głównie "podział poziomy" z poziomu strukturalnego, obliczenia równoległe kładą nacisk na "ulepszenie pionowe", to znaczy jednoczesne przetwarzanie transakcji atomowych odbywa się poprzez zmianę architektury silnika wykonawczego w ramach jednego łańcucha. Wymaga to przepisania logiki planowania maszyn wirtualnych i wprowadzenia pełnego zestawu nowoczesnych mechanizmów planowania systemów komputerowych, takich jak analiza zależności transakcji, przewidywanie konfliktów stanów, kontrola równoległości i wywołania asynchroniczne. Solana jest pierwszym projektem, który implementuje koncepcję równoległej maszyny wirtualnej do systemu na poziomie łańcucha, który realizuje równoległe wykonywanie wielu rdzeni poprzez ocenę konfliktu transakcji w oparciu o model konta. Nowa generacja projektów, takich jak Monad, Sei, Fuel, MegaETH itp., próbuje dalej wprowadzać najnowocześniejsze pomysły, takie jak wykonywanie potoków, optymistyczna współbieżność, partycjonowanie pamięci masowej i równoległe rozprzęganie w celu zbudowania wysokowydajnych rdzeni wykonawczych podobnych do nowoczesnych procesorów. Główną zaletą tego kierunku jest to, że nie musi on polegać na architekturze wielołańcuchowej, aby osiągnąć przełom w limicie przepustowości, a jednocześnie zapewnia wystarczającą elastyczność obliczeniową do wykonywania złożonych inteligentnych kontraktów, co jest ważnym technicznym warunkiem wstępnym dla przyszłych scenariuszy zastosowań, takich jak AI Agent, gry łańcuchowe na dużą skalę i pochodne wysokiej częstotliwości. Patrząc na powyższe pięć typów ścieżek skalowania, podział, który za nimi stoi, to w rzeczywistości systematyczny kompromis między wydajnością, komponowalnością, bezpieczeństwem i złożonością rozwoju blockchaina. Rollup jest silny w outsourcingu konsensusu i bezpiecznym dziedziczeniu, modułowość podkreśla elastyczność strukturalną i ponowne wykorzystanie komponentów, skalowanie poza łańcuchem próbuje przebić się przez wąskie gardło głównego łańcucha, ale koszt zaufania jest wysoki, a równoległość wewnątrz łańcucha koncentruje się na fundamentalnym ulepszeniu warstwy wykonawczej, próbując zbliżyć się do granicy wydajności nowoczesnych systemów rozproszonych bez niszczenia spójności łańcucha. Niemożliwe jest, aby każda ze ścieżek rozwiązała wszystkie problemy, ale to właśnie te kierunki razem tworzą panoramę aktualizacji paradygmatu obliczeniowego Web3, a także zapewniają deweloperom, architektom i inwestorom niezwykle bogate opcje strategiczne. Tak jak system operacyjny przesunął się z jednordzeniowego na wielordzeniowy, a bazy danych ewoluowały od sekwencyjnych indeksów do jednoczesnych transakcji, ekspansja Web3 ostatecznie przesunie się w kierunku wysoce równoległej ery wykonawczej. W tej epoce wydajność nie jest już tylko wyścigiem prędkości łańcucha, ale kompleksowym ucieleśnieniem podstawowej filozofii projektowania, głębokiego zrozumienia architektury, współpracy oprogramowania i sprzętu oraz kontroli systemu. A równoległość wewnątrz łańcucha może być ostatecznym polem bitwy w tej długotrwałej wojnie. 3. Wykres klasyfikacji obliczeń równoległych: pięć ścieżek od konta do instrukcji W kontekście ciągłej ewolucji technologii skalowania blockchain, przetwarzanie równoległe stopniowo stało się główną ścieżką do przełomowych odkryć w zakresie wydajności. W odróżnieniu od poziomego rozprzęgania warstwy struktury, warstwy sieciowej lub warstwy dostępności danych, przetwarzanie równoległe to głębokie wydobycie w warstwie wykonawczej, które jest związane z najniższą logiką wydajności operacyjnej łańcucha bloków i określa szybkość odpowiedzi i zdolność przetwarzania systemu blockchain w obliczu wysokiej współbieżności i wielotypowych złożonych transakcji. Wychodząc od modelu wykonawczego i dokonując przeglądu rozwoju tej linii technologicznej, możemy uporządkować przejrzystą mapę klasyfikacyjną obliczeń równoległych, którą można z grubsza podzielić na pięć ścieżek technicznych: równoległość na poziomie konta, równoległość na poziomie obiektu, równoległość na poziomie transakcji, równoległość na poziomie maszyny wirtualnej i równoległość na poziomie instrukcji. Te pięć typów ścieżek, od gruboziarnistych do drobnoziarnistych, to nie tylko ciągły proces udoskonalania logiki równoległej, ale także ścieżka rosnącej złożoności systemu i trudności w planowaniu. Najwcześniejszym równoległym poziomem konta jest paradygmat reprezentowany przez Solana. Model ten opiera się na projekcie rozdzielenia konta i stanu i określa, czy istnieje relacja powodująca konflikt, poprzez statyczną analizę zestawu kont zaangażowanych w transakcję. Jeśli dwie transakcje uzyskują dostęp do zestawu kont, które nie nakładają się na siebie, mogą być wykonywane jednocześnie na wielu rdzeniach. Mechanizm ten jest idealny do radzenia sobie z dobrze ustrukturyzowanymi transakcjami z jasnymi danymi wejściowymi i wyjściowymi, szczególnie w przypadku programów o przewidywalnych ścieżkach, takich jak DeFi. Jednak jego naturalnym założeniem jest to, że dostęp do konta jest przewidywalny, a zależność od stanu można wywnioskować statycznie, co czyni go podatnym na konserwatywne wykonywanie i zmniejszoną równoległość w obliczu złożonych inteligentnych kontraktów (takich jak dynamiczne zachowania, takie jak gry łańcuchowe i agenci AI). Ponadto wzajemna zależność między rachunkami sprawia również, że równoległe zwroty są poważnie osłabione w niektórych scenariuszach handlu o wysokiej częstotliwości. Czas działania Solany jest wysoce zoptymalizowany pod tym względem, ale jego podstawowa strategia planowania jest nadal ograniczona przez stopień szczegółowości konta. Dalsze doprecyzowanie w oparciu o model konta, wchodzimy w techniczny poziom równoległości na poziomie obiektu. Równoległość na poziomie obiektu wprowadza semantyczną abstrakcję zasobów i modułów, z jednoczesnym planowaniem w bardziej szczegółowych jednostkach "obiektów stanu". Aptos i Sui są ważnymi badaczami w tym kierunku, zwłaszcza ten drugi, który definiuje własność i zmienność zasobów w czasie kompilacji za pomocą liniowego systemu typów języka Move, umożliwiając środowisku wykonawczemu precyzyjną kontrolę konfliktów dostępu do zasobów. W porównaniu z równoległością na poziomie konta ta metoda jest bardziej wszechstronna i skalowalna, może obejmować bardziej złożoną logikę odczytu i zapisu stanu oraz naturalnie obsługuje wysoce heterogeniczne scenariusze, takie jak gry, sieci społecznościowe i sztuczna inteligencja. Jednak równoległość na poziomie obiektu wprowadza również większe bariery językowe i złożoność programowania, a Move nie jest bezpośrednim zamiennikiem Solidity, a wysoki koszt ekologicznego przełączania ogranicza popularność jego równoległego paradygmatu. Dalszy równoległość na poziomie transakcji to kierunek, w którym podąża nowa generacja wysokowydajnych łańcuchów reprezentowanych przez Monad, Sei i Fuel. Zamiast traktować stany lub konta jako najmniejszą jednostkę równoległości, ścieżka jest budowana wokół wykresu zależności wokół całej transakcji. Traktuje transakcje jako niepodzielne jednostki operacji, tworzy wykresy transakcji (grupy DAG transakcji) za pomocą analizy statycznej lub dynamicznej i opiera się na harmonogramach do współbieżnego wykonywania przepływów. Taka konstrukcja pozwala systemowi zmaksymalizować równoległość wydobycia bez konieczności pełnego zrozumienia podstawowej struktury stanu. Monad jest szczególnie przyciągający wzrok, łącząc nowoczesne technologie silnika bazy danych, takie jak Optimistic Concurrency Control (OCC), równoległe planowanie potoków i wykonywanie poza kolejnością, zbliżając wykonywanie łańcucha do paradygmatu "harmonogramu GPU". W praktyce mechanizm ten wymaga niezwykle złożonych menedżerów zależności i detektorów konfliktów, a wąskim gardłem może stać się również sam scheduler, ale jego potencjalna przepustowość jest znacznie wyższa niż modelu konta czy obiektu, co czyni go najbardziej teoretyczną siłą w obecnej ścieżce obliczeń równoległych. Z drugiej strony równoległość na poziomie maszyny wirtualnej osadza możliwości współbieżnego wykonywania bezpośrednio w podstawowej logice planowania instrukcji maszyny wirtualnej, dążąc do całkowitego przełamania nieodłącznych ograniczeń wykonywania sekwencji EVM. Jako "eksperyment z super maszyną wirtualną" w ekosystemie Ethereum, MegaETH próbuje przeprojektować EVM, aby obsługiwał wielowątkowe jednoczesne wykonywanie kodu inteligentnych kontraktów. Warstwa podstawowa umożliwia każdemu kontraktowi niezależne uruchamianie w różnych kontekstach wykonywania za pomocą mechanizmów, takich jak wykonywanie segmentowane, segmentacja stanu i wywołanie asynchroniczne, a także zapewnia ostateczną spójność za pomocą warstwy synchronizacji równoległej. Najtrudniejszą częścią tego podejścia jest to, że musi ono być w pełni kompatybilne z istniejącą semantyką zachowań EVM, a jednocześnie przekształcać całe środowisko wykonawcze i mechanizm gazowy, aby płynnie migrować ekosystem Solidity do równoległego frameworka. Wyzwaniem jest nie tylko głębokość stosu technologicznego, ale także akceptacja znaczących zmian w strukturze politycznej L1 Ethereum. Ale jeśli się powiedzie, MegaETH zapowiada się na "rewolucję procesorów wielordzeniowych" w przestrzeni EVM. Ostatnim typem ścieżki jest równoległość na poziomie instrukcji, która jest najbardziej szczegółowa i ma najwyższy próg techniczny. Pomysł wywodzi się z potoków wykonywania i instrukcji po zakończeniu w nowoczesnej konstrukcji procesora. Paradygmat ten twierdzi, że ponieważ każdy inteligentny kontrakt jest ostatecznie kompilowany do instrukcji kodu bajtowego, całkowicie możliwe jest zaplanowanie i przeanalizowanie każdej operacji oraz równoległe przegrupowanie jej w taki sam sposób, w jaki procesor wykonuje zestaw instrukcji x86. Zespół Fuel początkowo wprowadził w swoim FuelVM model wykonywania na poziomie instrukcji, a w dłuższej perspektywie, gdy silnik wykonawczy blockchain zaimplementuje predykcyjne wykonywanie i dynamiczne przegrupowanie zależnych od instrukcji, jego równoległość osiągnie teoretyczny limit. Takie podejście może nawet przenieść wspólne projektowanie blockchain-hardware na zupełnie nowy poziom, czyniąc łańcuch prawdziwym "zdecentralizowanym komputerem", a nie tylko "rozproszoną księgą". Oczywiście ta ścieżka jest jeszcze w fazie teoretycznej i eksperymentalnej, a odpowiednie schedulery i mechanizmy weryfikacji bezpieczeństwa nie są jeszcze dojrzałe, ale wskazują na ostateczną granicę przyszłości obliczeń równoległych. Podsumowując, pięć ścieżek konta, obiektu, transakcji, maszyny wirtualnej i instrukcji stanowi spektrum rozwoju wewnątrzłańcuchowych obliczeń równoległych, od statycznej struktury danych po dynamiczny mechanizm planowania, od przewidywania dostępu do stanu po reorganizację na poziomie instrukcji, każdy krok technologii równoległej oznacza znaczny wzrost złożoności systemu i progu rozwoju. Ale jednocześnie oznaczają one również zmianę paradygmatu w modelu obliczeniowym blockchain, od tradycyjnego rejestru konsensusu pełnej sekwencji do wysokowydajnego, przewidywalnego i dyspozycyjnego rozproszonego środowiska wykonawczego. Jest to nie tylko nadrobienie zaległości w zakresie wydajności przetwarzania w chmurze Web2, ale także głęboka koncepcja ostatecznej formy "komputera blockchain". Wybór równoległych ścieżek dla różnych łańcuchów publicznych określi również limit nośny ich przyszłych ekosystemów aplikacji, a także ich podstawową konkurencyjność w scenariuszach takich jak AI Agent, gry łańcuchowe i handel on-chain o wysokiej częstotliwości. Po czwarte, wyjaśnione są dwie główne ścieżki: Monad vs MegaETH Spośród wielu ścieżek ewolucji obliczeń równoległych, dwie główne ścieżki techniczne o największym skupieniu, najwyższym głosie i najbardziej kompletnej narracji na obecnym rynku to bez wątpienia "budowanie równoległego łańcucha obliczeniowego od podstaw" reprezentowane przez Monad oraz "równoległa rewolucja w EVM" reprezentowana przez MegaETH. Te dwa są nie tylko najbardziej intensywnymi kierunkami badawczo-rozwojowymi dla obecnych prymitywnych inżynierów kryptograficznych, ale także najbardziej decydującymi symbolami biegunowymi w obecnym wyścigu wydajności komputerów Web3. Różnica między nimi polega nie tylko na punkcie wyjścia i stylu architektury technicznej, ale także na obiektach ekologicznych, którym służą, kosztach migracji, filozofii realizacji i przyszłej ścieżce strategicznej, która za nimi stoi. Reprezentują one równoległą konkurencję paradygmatu między "rekonstrukcjonizmem" a "kompatybilnizmem" i głęboko wpłynęły na wyobrażenia rynku o ostatecznej formie łańcuchów o wysokiej wydajności. Monad jest na wskroś "fundamentalistą obliczeniowym", a jego filozofia projektowania nie jest zaprojektowana tak, aby była kompatybilna z istniejącymi EVM, ale raczej aby na nowo zdefiniować sposób, w jaki silniki wykonawcze blockchain działają pod maską, czerpiąc inspirację z nowoczesnych baz danych i wysokowydajnych systemów wielordzeniowych. Jego podstawowy system technologiczny opiera się na dojrzałych mechanizmach w dziedzinie baz danych, takich jak optymistyczna kontrola współbieżności, planowanie transakcji DAG, wykonywanie poza kolejnością i wykonywanie potokowe, mające na celu zwiększenie wydajności przetwarzania transakcji w łańcuchu do rzędu milionów TPS. W architekturze Monad wykonywanie i porządkowanie transakcji jest całkowicie rozłączone, a system najpierw buduje wykres zależności transakcji, a następnie przekazuje go do harmonogramu w celu równoległego wykonania. Wszystkie transakcje są traktowane jako niepodzielne jednostki transakcji, z jawnymi zestawami odczytu i zapisu oraz migawkami stanu, a harmonogramy są wykonywane optymistycznie na podstawie wykresów zależności, wycofując się i ponownie wykonując, gdy wystąpią konflikty. Mechanizm ten jest niezwykle złożony pod względem implementacji technicznej, wymagający budowy stosu wykonawczego podobnego do tego, jaki posiada nowoczesny menedżer transakcji bazy danych, a także wprowadzenia mechanizmów takich jak buforowanie wielopoziomowe, pobieranie z wyprzedzeniem, walidacja równoległa itp., w celu kompresji opóźnienia zatwierdzenia stanu końcowego, ale teoretycznie może przesunąć granicę przepustowości do wysokości, których nie wyobraża sobie obecny łańcuch. Co ważniejsze, Monad nie zrezygnował z interoperacyjności z EVM. Wykorzystuje warstwę pośrednią podobną do "Solidity-Compatible Intermediate Language", aby wspierać programistów w pisaniu kontraktów w składni Solidity, a jednocześnie przeprowadzać optymalizację języka pośredniego i planowanie równoległości w silniku wykonawczym. Ta strategia projektowania polegająca na "kompatybilności powierzchniowej i refaktoryzacji dna" nie tylko zachowuje przyjazność ekologicznych deweloperów Ethereum, ale także w największym stopniu uwalnia podstawowy potencjał wykonawczy, co jest typową strategią techniczną polegającą na "połykaniu EVM, a następnie jego dekonstrukcji". Oznacza to również, że po uruchomieniu Monad stanie się nie tylko suwerennym łańcuchem o ekstremalnej wydajności, ale także idealną warstwą wykonawczą dla sieci rollupowych warstwy 2, a nawet "podłączanym rdzeniem o wysokiej wydajności" dla innych modułów wykonawczych łańcucha w dłuższej perspektywie. Z tego punktu widzenia Monad to nie tylko droga techniczna, ale także nowa logika projektowania suwerenności systemu, która opowiada się za "modularyzacją, wydajnością i możliwością ponownego wykorzystania" warstwy wykonawczej, aby stworzyć nowy standard dla międzyłańcuchowego przetwarzania zespołowego. W przeciwieństwie do stanowiska Monada w sprawie "nowego budowniczego świata", MegaETH jest zupełnie odwrotnym typem projektu, który decyduje się na start od istniejącego świata Ethereum i osiągnięcie znacznego wzrostu wydajności realizacji przy minimalnych kosztach zmian. MegaETH nie wywraca do góry nogami specyfikacji EVM, ale raczej stara się wbudować moc obliczeń równoległych w silnik wykonawczy istniejącego EVM, tworząc przyszłą wersję "wielordzeniowego EVM". Uzasadnieniem jest całkowita refaktoryzacja obecnego modelu wykonywania instrukcji EVM z takimi możliwościami, jak izolacja na poziomie wątku, asynchroniczne wykonywanie na poziomie kontraktu i wykrywanie konfliktów dostępu do stanu, co pozwala wielu inteligentnym kontraktom działać jednocześnie w tym samym bloku i ostatecznie scalać zmiany stanu. Model ten wymaga od programistów osiągnięcia znacznego wzrostu wydajności z tego samego kontraktu wdrożonego w łańcuchu MegaETH bez zmiany istniejących kontraktów Solidity, przy użyciu nowych języków lub łańcuchów narzędzi. Ta ścieżka "konserwatywnej rewolucji" jest niezwykle atrakcyjna, szczególnie dla ekosystemu Ethereum L2, ponieważ stanowi idealną ścieżkę do bezbolesnych ulepszeń wydajności bez konieczności migracji składni. Główny przełom w MegaETH polega na wielowątkowym mechanizmie planowania maszyn wirtualnych. Tradycyjne EVM wykorzystują stosowy, jednowątkowy model wykonywania, w którym każda instrukcja jest wykonywana liniowo, a aktualizacje stanu muszą odbywać się synchronicznie. MegaETH przełamuje ten wzorzec i wprowadza asynchroniczny stos wywołań i mechanizm izolacji kontekstu wykonywania, tak aby osiągnąć jednoczesne wykonywanie "współbieżnych kontekstów EVM". Każdy kontrakt może wywoływać własną logikę w osobnym wątku, a wszystkie wątki będą jednolicie wykrywać i zbieżne stan za pośrednictwem równoległej warstwy zatwierdzania, gdy stan zostanie ostatecznie przesłany. Mechanizm ten jest bardzo podobny do wielowątkowego modelu JavaScript nowoczesnych przeglądarek (Web Workers + Shared Memory + Lock-Free Data), który zachowuje determinizm zachowania głównego wątku i wprowadza wysokowydajny mechanizm planowania, który jest asynchroniczny w tle. W praktyce projekt ten jest również niezwykle przyjazny dla budowniczych bloków i wyszukiwarek, a także może optymalizować sortowanie Mempool i ścieżki przechwytywania MEV zgodnie ze strategiami równoległymi, tworząc zamkniętą pętlę korzyści ekonomicznych w warstwie wykonawczej. Co ważniejsze, MegaETH decyduje się na głębokie powiązanie z ekosystemem Ethereum, a jego głównym miejscem lądowania w przyszłości będzie prawdopodobnie sieć EVM L2 Rollup, taka jak łańcuch Optimism, Base lub Arbitrum Orbit. Po przyjęciu na dużą skalę, może osiągnąć prawie 100-krotną poprawę wydajności w stosunku do istniejącego stosu technologicznego Ethereum bez zmiany semantyki kontraktów, modelu stanu, logiki gazu, metod wywoływania itp., co czyni go atrakcyjnym kierunkiem modernizacji technologii dla konserwatystów EVM. Paradygmat MegaETH jest następujący: tak długo, jak nadal robisz rzeczy na Ethereum, pozwolę, aby Twoja wydajność obliczeniowa gwałtownie wzrosła. Z punktu widzenia realizmu i inżynierii jest łatwiejszy do wdrożenia niż Monad i jest bardziej zgodny z iteracyjną ścieżką głównych projektów DeFi i NFT, co czyni go kandydatem do wsparcia ekologicznego w perspektywie krótkoterminowej. W pewnym sensie dwie trasy Monad i MegaETH to nie tylko dwie implementacje równoległych ścieżek technologicznych, ale także klasyczna konfrontacja między "refaktoryzacją" a "kompatybilnością" na ścieżce rozwoju blockchain: pierwsza z nich dąży do przełomu w paradygmacie i rekonstruuje całą logikę od maszyn wirtualnych po leżące u podstaw zarządzanie stanem, aby osiągnąć najwyższą wydajność i plastyczność architektoniczną; Ten ostatni dąży do stopniowej optymalizacji, popychając tradycyjne systemy do granic możliwości, jednocześnie respektując istniejące ograniczenia ekologiczne, minimalizując w ten sposób koszty migracji. Nie ma między nimi absolutnych zalet ani wad, ale służą one różnym grupom programistów i wizjom ekosystemu. Monad jest bardziej odpowiedni do budowania nowych systemów od podstaw, gier łańcuchowych, które dążą do ekstremalnej przepustowości, agentów AI i modułowych łańcuchów wykonawczych. Z drugiej strony MegaETH jest bardziej odpowiedni dla projektów L2, projektów DeFi i protokołów infrastrukturalnych, które chcą osiągnąć wzrost wydajności przy minimalnych zmianach w rozwoju. Są jak pociągi dużych prędkości na nowym torze, przedefiniowane z toru, sieci energetycznej na karoserię, tylko po to, aby osiągnąć niespotykaną prędkość i doświadczenie; Innym przykładem jest instalowanie turbin na istniejących autostradach, poprawa harmonogramu pasów ruchu i konstrukcji silnika, dzięki czemu pojazdy mogą jechać szybciej bez opuszczania znanej sieci drogowej. Oba mogą skończyć się w ten sam sposób: w następnej fazie modułowych architektur blockchain, Monad może stać się modułem "egzekucji jako usługi" dla Rollupów, a MegaETH może stać się wtyczką przyspieszającą wydajność dla głównych L2. Te dwa elementy mogą ostatecznie się zjednoczyć, tworząc dwa skrzydła wysokowydajnego silnika wykonawczego rozproszonego w przyszłym świecie Web3. 5. Przyszłe możliwości i wyzwania związane z obliczeniami równoległymi W miarę jak przetwarzanie równoległe przechodzi od projektowania opartego na dokumentach papierowych do wdrażania on-chain, potencjał, który odblokowuje, staje się coraz bardziej konkretny i mierzalny. Z jednej strony zaobserwowaliśmy, że nowe paradygmaty rozwoju i modele biznesowe zaczęły na nowo definiować "wydajność on-chain": bardziej złożona logika gier łańcuchowych, bardziej realistyczny cykl życia agenta AI, więcej protokołu wymiany danych w czasie rzeczywistym, bardziej wciągające interaktywne doświadczenie, a nawet system operacyjny Super App oparty na współpracy on-chain zmieniają się z "czy możemy to zrobić" na "jak dobrze możemy to zrobić". Z drugiej strony, tym, co naprawdę napędza przejście na przetwarzanie równoległe, jest nie tylko liniowa poprawa wydajności systemu, ale także strukturalna zmiana granic poznawczych programistów i kosztów migracji ekologicznej. Tak jak wprowadzenie przez Ethereum mechanizmu kontraktów Turing-complete dało początek wielowymiarowej eksplozji DeFi, NFT i DAO, tak "asynchroniczna rekonstrukcja między stanem a instrukcją" spowodowana przez obliczenia równoległe rodzi również nowy model świata on-chain, który jest nie tylko rewolucją w wydajności wykonania, ale także wylęgarnią innowacji w zakresie rozszczepienia w strukturze produktu. Przede wszystkim, z perspektywy możliwości, najbardziej bezpośrednią korzyścią jest "podniesienie pułapu aplikacji". Większość obecnych aplikacji DeFi, gier i aplikacji społecznościowych jest ograniczona przez wąskie gardła stanowe, koszty gazu i opóźnienia i nie może naprawdę przenosić interakcji o wysokiej częstotliwości w łańcuchu na dużą skalę. Biorąc za przykład gry łańcuchowe, GameFi z rzeczywistym sprzężeniem zwrotnym ruchu, synchronizacją zachowań o wysokiej częstotliwości i logiką walki w czasie rzeczywistym prawie nie istnieje, ponieważ liniowe wykonanie tradycyjnego EVM nie może obsługiwać transmisyjnego potwierdzania dziesiątek zmian stanu na sekundę. Dzięki wsparciu obliczeń równoległych, poprzez mechanizmy takie jak DAG transakcyjne i konteksty asynchroniczne na poziomie kontraktu, można konstruować łańcuchy o wysokiej współbieżności, a deterministyczne wyniki wykonywania można zagwarantować poprzez spójność migawek, aby osiągnąć strukturalny przełom w "silniku gier on-chain". Podobnie, wdrażanie i obsługa agentów AI również zostanie znacznie ulepszone dzięki przetwarzaniu równoległemu. W przeszłości mieliśmy tendencję do uruchamiania agentów AI poza łańcuchem i przesyłania wyników ich zachowań tylko do kontraktów on-chain, ale w przyszłości on-chain może obsługiwać asynchroniczną współpracę i udostępnianie stanów między wieloma podmiotami AI poprzez równoległe planowanie transakcji, aby naprawdę zrealizować autonomiczną logikę agenta w łańcuchu w czasie rzeczywistym. Obliczenia równoległe będą infrastrukturą dla tego "kontraktu opartego na zachowaniu", napędzając Web3 z "transakcji jako aktywa" do nowego świata "interakcji jako agenta". Po drugie, łańcuch narzędzi programistycznych i warstwa abstrakcji maszyn wirtualnych również zostały strukturalnie przekształcone ze względu na równoległość. Tradycyjny paradygmat rozwoju Solidity opiera się na modelu myślenia szeregowego, w którym programiści są przyzwyczajeni do projektowania logiki jako jednowątkowej zmiany stanu, ale w architekturach obliczeń równoległych programiści będą zmuszeni do myślenia o konfliktach zestawów odczytu/zapisu, zasadach izolacji stanu, nieotomności transakcji, a nawet wprowadzaniu wzorców architektonicznych opartych na kolejkach komunikatów lub potokach stanów. Ten skok w strukturze kognitywnej doprowadził również do szybkiego rozwoju nowej generacji łańcuchów narzędziowych. Na przykład równoległe ramy inteligentnych kontraktów, które obsługują deklaracje zależności transakcyjnych, kompilatory optymalizacyjne oparte na IR i współbieżne debuggery, które obsługują symulację migawek transakcji, staną się siedliskiem eksplozji infrastruktury w nowym cyklu. Jednocześnie ciągła ewolucja modułowych blockchainów przyniosła również doskonałą ścieżkę docelową dla obliczeń równoległych: Monad może zostać wstawiona do L2 Rollup jako moduł wykonawczy, MegaETH może być wdrożony jako zamiennik EVM dla głównych łańcuchów, Celestia zapewnia obsługę warstwy dostępności danych, a EigenLayer zapewnia zdecentralizowaną sieć walidatorów, tworząc w ten sposób wysokowydajną zintegrowaną architekturę od danych bazowych do logiki wykonania. Jednak postęp w dziedzinie obliczeń równoległych nie jest łatwą drogą, a wyzwania są jeszcze bardziej strukturalne i trudne do pokonania niż możliwości. Z jednej strony podstawowe trudności techniczne leżą w "gwarancji spójności współbieżności stanów" i "strategii radzenia sobie z konfliktami transakcji". W przeciwieństwie do baz danych poza łańcuchem, on-chain nie może tolerować arbitralnego stopnia wycofywania transakcji lub wycofywania stanu, a wszelkie konflikty wykonania muszą być modelowane z wyprzedzeniem lub precyzyjnie kontrolowane podczas zdarzenia. Oznacza to, że harmonogram równoległy musi mieć silne możliwości konstruowania wykresów zależności i przewidywania konfliktów, a jednocześnie zaprojektować wydajny mechanizm odporności na błędy wykonania optymistycznego, w przeciwnym razie system jest podatny na "burzę ponawiania prób jednoczesnych awarii" pod dużym obciążeniem, które nie tylko wzrasta, ale maleje, a nawet powoduje niestabilność łańcucha. Co więcej, obecny model bezpieczeństwa wielowątkowego środowiska wykonawczego nie został jeszcze w pełni ustalony, taki jak precyzja mechanizmu izolacji stanów między wątkami, nowe wykorzystanie ataków re-entrancy w kontekstach asynchronicznych oraz eksplozja gazu w krzyżowych wywołaniach kontraktów, z których wszystkie są nowymi problemami, które należy rozwiązać. Bardziej podstępne wyzwania wynikają z aspektów ekologicznych i psychologicznych. To, czy programiści są skłonni do migracji do nowego paradygmatu, czy są w stanie opanować metody projektowania modeli równoległych i czy są skłonni zrezygnować z części czytelności i audytowalności kontraktowej na rzecz korzyści w zakresie wydajności, jest kluczem do tego, czy obliczenia równoległe mogą tworzyć potencjalną energię ekologiczną. W ciągu ostatnich kilku lat widzieliśmy, jak wiele łańcuchów o doskonałej wydajności, ale pozbawionych wsparcia programistów, stopniowo milknie, takich jak NEAR, Avalanche, a nawet niektóre łańcuchy Cosmos SDK o znacznie lepszej wydajności niż EVM, a ich doświadczenie przypomina nam, że bez programistów nie ma ekosystemu; Bez ekologii, bez względu na to, jak dobre są osiągi, jest to po prostu zamek w powietrzu. W związku z tym projekty obliczeń równoległych powinny nie tylko tworzyć najsilniejszy silnik, ale także najłagodniejszą ścieżkę przejścia ekologicznego, tak aby "wydajność była gotowa do użycia", a nie "wydajność była progiem poznawczym". Ostatecznie przyszłość obliczeń równoległych jest zarówno triumfem inżynierii systemów, jak i testem dla ekoprojektowania. Zmusi nas to do ponownego zastanowienia się nad tym, "co jest istotą łańcucha": czy jest to zdecentralizowana maszyna rozliczeniowa, czy globalnie rozproszony koordynator stanu w czasie rzeczywistym? Jeśli tak jest w drugim przypadku, to możliwości przepustowości stanu, współbieżności transakcji i responsywności kontraktów, które wcześniej były uważane za "szczegóły techniczne łańcucha", ostatecznie staną się podstawowymi wskaźnikami definiującymi wartość łańcucha. Paradygmat obliczeń równoległych, który naprawdę zakończy tę transformację, stanie się również najbardziej podstawowym i najbardziej złożonym prymitywem infrastruktury w tym nowym cyklu, a jego wpływ będzie wykraczał daleko poza moduł techniczny i może stanowić punkt zwrotny w ogólnym paradygmacie obliczeniowym Web3. 6. Wniosek: Czy przetwarzanie równoległe jest najlepszą ścieżką do natywnego skalowania Web3? Spośród wszystkich ścieżek, które badają granice wydajności Web3, przetwarzanie równoległe nie jest najłatwiejsze do wdrożenia, ale może być najbliższe istocie blockchaina. Nie migruje poza łańcuch, ani nie poświęca decentralizacji w zamian za przepustowość, ale stara się zrekonstruować sam model wykonawczy w atomowości i determinizmie łańcucha, od warstwy transakcji, warstwy kontraktów i warstwy maszyn wirtualnych do źródła wąskiego gardła wydajności. Ta "natywna dla łańcucha" metoda skalowania nie tylko zachowuje podstawowy model zaufania blockchaina, ale także rezerwuje zrównoważoną glebę wydajności dla bardziej złożonych aplikacji on-chain w przyszłości. Jego trudność tkwi w strukturze, a jego urok tkwi w strukturze. Jeśli refaktoryzacja modułowa jest "architekturą łańcucha", to refaktoryzacja obliczeń równoległych jest "duszą łańcucha". Być może nie jest to droga na skróty do odprawy celnej, ale prawdopodobnie będzie to jedyne trwałe pozytywne rozwiązanie w długoterminowej ewolucji Web3. Jesteśmy świadkami przejścia architektury od procesorów jednordzeniowych do wielordzeniowych/wielowątkowych systemów operacyjnych, a pojawienie się natywnych dla Web3 systemów operacyjnych może być ukryte w tych równoległych eksperymentach w łańcuchu.
Pokaż oryginał
120,76 tys.
1
Odaily
Odaily
1. Wprowadzenie: Ekspansja jest wieczną propozycją, a równoległość jest ostatecznym polem bitwy Od narodzin Bitcoina, system blockchain zawsze borykał się z nieuniknionym podstawowym problemem: skalowaniem. Bitcoin przetwarza mniej niż 10 transakcji na sekundę, a Ethereum ma trudności z przebiciem się przez wąskie gardło wydajności dziesiątek TPS (transakcji na sekundę), co jest szczególnie uciążliwe w tradycyjnym świecie Web2, gdzie często używane są dziesiątki tysięcy TPS. Co ważniejsze, nie jest to prosty problem, który można rozwiązać poprzez "dodawanie serwerów", ale ograniczenie systemowe głęboko osadzone w podstawowym konsensusie i projekcie strukturalnym blockchaina - czyli niemożliwym trójkącie łańcucha bloków, w którym nie można połączyć "decentralizacji, bezpieczeństwa i skalowalności". W ciągu ostatniej dekady byliśmy świadkami niezliczonych prób ekspansji, które wznosiły się i upadały. Od wojny o skalowanie Bitcoina po wizję shardingu Ethereum, od kanałów stanowych i plazmy po rollupy i modułowe blockchainy, od realizacji poza łańcuchem w warstwie 2 po strukturalną refaktoryzację dostępności danych, cała branża wkroczyła na ścieżkę skalowania pełną inżynieryjnej wyobraźni. Jako najszerzej akceptowany paradygmat skalowania, rollup osiągnął cel, jakim jest znaczne zwiększenie TPS przy jednoczesnym zmniejszeniu obciążenia wykonawczego głównego łańcucha i zachowaniu bezpieczeństwa Ethereum. Nie dotyka to jednak prawdziwych granic leżącej u podstaw blockchaina "wydajności pojedynczego łańcucha", zwłaszcza na poziomie wykonania, który jest przepustowością samego bloku – jest nadal ograniczony przez starożytny paradygmat przetwarzania obliczeń szeregowych w łańcuchu. Z tego powodu przetwarzanie równoległe w łańcuchu stopniowo wkroczyło w pole widzenia branży. W odróżnieniu od skalowania poza łańcuchem i dystrybucji międzyłańcuchowej, równoległość wewnątrz łańcucha próbuje całkowicie zrekonstruować silnik wykonawczy przy zachowaniu atomowości pojedynczego łańcucha i zintegrowanej struktury, a także aktualizuje blockchain z jednowątkowego trybu "szeregowego wykonywania jednej transakcji po jednej" do systemu obliczeniowego o wysokiej współbieżności "wielowątkowość + potok + planowanie zależności" pod kierunkiem nowoczesnego systemu operacyjnego i projektu procesora. Taka ścieżka może nie tylko osiągnąć stukrotny wzrost przepustowości, ale także może stać się kluczowym warunkiem wstępnym dla eksplozji aplikacji inteligentnych kontraktów. W rzeczywistości w paradygmacie obliczeń Web2 przetwarzanie jednowątkowe już dawno zostało wyeliminowane przez nowoczesne architektury sprzętowe i zastąpione przez niekończący się strumień modeli optymalizacji, takich jak programowanie równoległe, planowanie asynchroniczne, pule wątków i mikrousługi. Blockchain, jako bardziej prymitywny i konserwatywny system obliczeniowy o niezwykle wysokich wymaganiach dotyczących pewności i weryfikowalności, nigdy nie był w stanie w pełni wykorzystać tych pomysłów na obliczenia równoległe. Jest to zarówno ograniczenie, jak i szansa. Nowe łańcuchy, takie jak Solana, Sui i Aptos, są pierwszymi, które rozpoczynają tę eksplorację, wprowadzając równoległość na poziomie architektury. Pojawiające się projekty, takie jak Monad i MegaETH, jeszcze bardziej podniosły równoległość on-chain do przełomów w głębokich mechanizmach, takich jak wykonywanie potoków, optymistyczna współbieżność i asynchroniczne sterowanie komunikatami, wykazując cechy, które coraz bardziej zbliżają się do nowoczesnych systemów operacyjnych. Można powiedzieć, że obliczenia równoległe to nie tylko "metoda optymalizacji wydajności", ale także punkt zwrotny w paradygmacie modelu wykonawczego blockchain. Rzuca wyzwanie podstawowym wzorcom realizacji inteligentnych kontraktów i na nowo definiuje podstawową logikę pakowania transakcji, dostępu do stanu, relacji połączeń i układu pamięci masowej. Jeśli rollup polega na "przenoszeniu transakcji do wykonania poza łańcuchem", to równoległość on-chain to "budowanie rdzeni superkomputerowych w łańcuchu", a jego celem nie jest po prostu poprawa przepustowości, ale zapewnienie prawdziwie zrównoważonego wsparcia infrastrukturalnego dla przyszłych natywnych aplikacji Web3 (handel o wysokiej częstotliwości, silniki gier, wykonywanie modeli AI, społecznościowe on-chain itp.). Po tym, jak ścieżka rollupu stopniowo dąży do jednorodności, równoległość wewnątrz łańcucha po cichu staje się decydującą zmienną nowego cyklu konkurencji warstwy 1. Wydajność to już nie tylko "szybsza maszyna", ale możliwość obsługi całego heterogenicznego świata aplikacji. To nie tylko wyścig techniczny, ale także walka o paradygmat. Następna generacja suwerennych platform wykonawczych w świecie Web3 prawdopodobnie wyłoni się z tych równoległych zapasów wewnątrz łańcucha. 2. Paradygmat panoramy ekspansji: pięć rodzajów tras, z których każda ma swój własny nacisk Rozbudowa zdolności produkcyjnych, jako jeden z najważniejszych, trwałych i najtrudniejszych tematów w ewolucji technologii łańcucha publicznego, doprowadziła do powstania i ewolucji prawie wszystkich głównych ścieżek technologicznych w ciągu ostatniej dekady. Zaczynając od bitwy o rozmiar bloku Bitcoina, ten techniczny konkurs na temat "jak przyspieszyć działanie łańcucha" ostatecznie podzielił się na pięć podstawowych tras, z których każda wcina się w wąskie gardło pod innym kątem, z własną filozofią techniczną, trudnością lądowania, modelem ryzyka i możliwymi do zastosowania scenariuszami. Pierwsza droga to najprostsze skalowanie on-chain, co oznacza zwiększenie rozmiaru bloku, skrócenie czasu bloku lub poprawę mocy obliczeniowej poprzez optymalizację struktury danych i mechanizmu konsensusu. Podejście to było przedmiotem debaty na temat skalowania Bitcoina, dając początek forkom frakcji "big block", takim jak BCH i BSV, a także wpływając na pomysły projektowe wczesnych, wysokowydajnych łańcuchów publicznych, takich jak EOS i NEO. Zaletą tego rodzaju trasy jest to, że zachowuje prostotę spójności pojedynczego łańcucha, która jest łatwa do zrozumienia i wdrożenia, ale bardzo łatwo jest również dotknąć systemowej górnej granicy, takiej jak ryzyko centralizacji, rosnące koszty operacyjne węzłów i zwiększona trudność synchronizacji, więc nie jest to już główne rozwiązanie rdzeniowe w dzisiejszym projekcie, ale stało się bardziej pomocniczą kolokacją innych mechanizmów. Drugim typem trasy jest skalowanie poza łańcuchem, które jest reprezentowane przez kanały stanów i łańcuchy boczne. Podstawową ideą tego typu ścieżki jest przeniesienie większości aktywności transakcyjnej poza łańcuch i zapisanie tylko końcowego wyniku do głównego łańcucha, który działa jako końcowa warstwa rozliczeniowa. Pod względem filozofii technicznej jest to bliskie asynchronicznej architekturze Web2 - staraj się pozostawić ciężkie przetwarzanie transakcji na peryferiach, a główny łańcuch przeprowadza minimalną zaufaną weryfikację. Chociaż idea ta może być teoretycznie nieskończenie skalowalna, model zaufania, bezpieczeństwo funduszy i złożoność interakcji transakcji poza łańcuchem ograniczają jej zastosowanie. Na przykład, chociaż Lightning Network ma jasne pozycjonowanie scenariuszy finansowych, skala ekosystemu nigdy nie eksplodowała. Jednak wiele projektów opartych na sidechainach, takich jak Polygon POS, nie tylko ma wysoką przepustowość, ale także ujawnia wady trudnego dziedziczenia bezpieczeństwa głównego łańcucha. Trzeci typ trasy to najpopularniejsza i najczęściej wdrażana trasa zbiorcza warstwy 2. Ta metoda nie zmienia bezpośrednio samego głównego łańcucha, ale skaluje się poprzez mechanizm realizacji poza łańcuchem i weryfikacji on-chain. Optimistic Rollup i ZK Rollup mają swoje zalety: ten pierwszy jest szybki do wdrożenia i wysoce kompatybilny, ale ma problemy z opóźnieniem w okresie kwestionowania i mechanizmem odpornym na oszustwa; Ten ostatni ma silne zabezpieczenia i dobre możliwości kompresji danych, ale jest skomplikowany do opracowania i brakuje mu kompatybilności z EVM. Bez względu na to, jaki to jest rodzaj rollupu, jego istotą jest outsourcing mocy wykonawczej, przy jednoczesnym zachowaniu danych i weryfikacji w głównym łańcuchu, osiągając względną równowagę między decentralizacją a wysoką wydajnością. Szybki rozwój projektów takich jak Arbitrum, Optimism, zkSync i StarkNet dowodzi wykonalności tej ścieżki, ale ujawnia również średnioterminowe wąskie gardła, takie jak nadmierne poleganie na dostępności danych (DA), wysokie koszty i fragmentaryczne doświadczenie w programowaniu. Czwartym rodzajem trasy jest modułowa architektura blockchain, która pojawiła się w ostatnich latach, taka jak Celestia, Avail, EigenLayer itp. Paradygmat modułowy opowiada się za całkowitym oddzieleniem podstawowych funkcji blockchaina - wykonywania, konsensusu, dostępności danych i rozliczeń - przez wiele wyspecjalizowanych łańcuchów w celu wykonania różnych funkcji, a następnie połączenia ich w skalowalną sieć za pomocą protokołu cross-chain. Duży wpływ na ten kierunek ma modułowa architektura systemu operacyjnego oraz komponowalność chmury obliczeniowej, która ma tę zaletę, że umożliwia elastyczną wymianę komponentów systemu i znacznie poprawia wydajność w określonych obszarach, takich jak DA. Jednak wyzwania są również bardzo oczywiste: koszt synchronizacji, weryfikacji i wzajemnego zaufania między systemami po oddzieleniu modułów jest niezwykle wysoki, ekosystem programistów jest niezwykle rozdrobniony, a wymagania dotyczące średnio- i długoterminowych standardów protokołów i bezpieczeństwa cross-chain są znacznie wyższe niż w przypadku tradycyjnego projektowania łańcuchów. W istocie, model ten nie buduje już "łańcucha", ale buduje "sieć łańcuchową", co stanowi bezprecedensowy próg dla ogólnego zrozumienia architektury, obsługi i utrzymania. Ostatnim typem trasy, na którym skupi się późniejsza analiza w tym artykule, jest wewnątrzłańcuchowa ścieżka optymalizacji obliczeń równoległych. W przeciwieństwie do pierwszych czterech typów "podziału poziomego", które przeprowadzają głównie "podział poziomy" z poziomu strukturalnego, obliczenia równoległe kładą nacisk na "ulepszenie pionowe", to znaczy jednoczesne przetwarzanie transakcji atomowych odbywa się poprzez zmianę architektury silnika wykonawczego w ramach jednego łańcucha. Wymaga to przepisania logiki planowania maszyn wirtualnych i wprowadzenia pełnego zestawu nowoczesnych mechanizmów planowania systemów komputerowych, takich jak analiza zależności transakcji, przewidywanie konfliktów stanów, kontrola równoległości i wywołania asynchroniczne. Solana jest pierwszym projektem, który implementuje koncepcję równoległej maszyny wirtualnej do systemu na poziomie łańcucha, który realizuje równoległe wykonywanie wielu rdzeni poprzez ocenę konfliktu transakcji w oparciu o model konta. Nowa generacja projektów, takich jak Monad, Sei, Fuel, MegaETH itp., próbuje dalej wprowadzać najnowocześniejsze pomysły, takie jak wykonywanie potoków, optymistyczna współbieżność, partycjonowanie pamięci masowej i równoległe rozprzęganie w celu zbudowania wysokowydajnych rdzeni wykonawczych podobnych do nowoczesnych procesorów. Główną zaletą tego kierunku jest to, że nie musi on polegać na architekturze wielołańcuchowej, aby osiągnąć przełom w limicie przepustowości, a jednocześnie zapewnia wystarczającą elastyczność obliczeniową do wykonywania złożonych inteligentnych kontraktów, co jest ważnym technicznym warunkiem wstępnym dla przyszłych scenariuszy zastosowań, takich jak AI Agent, gry łańcuchowe na dużą skalę i pochodne wysokiej częstotliwości. Patrząc na powyższe pięć typów ścieżek skalowania, podział, który za nimi stoi, to w rzeczywistości systematyczny kompromis między wydajnością, komponowalnością, bezpieczeństwem i złożonością rozwoju blockchaina. Rollup jest silny w outsourcingu konsensusu i bezpiecznym dziedziczeniu, modułowość podkreśla elastyczność strukturalną i ponowne wykorzystanie komponentów, skalowanie poza łańcuchem próbuje przebić się przez wąskie gardło głównego łańcucha, ale koszt zaufania jest wysoki, a równoległość wewnątrz łańcucha koncentruje się na fundamentalnym ulepszeniu warstwy wykonawczej, próbując zbliżyć się do granicy wydajności nowoczesnych systemów rozproszonych bez niszczenia spójności łańcucha. Niemożliwe jest, aby każda ze ścieżek rozwiązała wszystkie problemy, ale to właśnie te kierunki razem tworzą panoramę aktualizacji paradygmatu obliczeniowego Web3, a także zapewniają deweloperom, architektom i inwestorom niezwykle bogate opcje strategiczne. Tak jak system operacyjny przesunął się z jednordzeniowego na wielordzeniowy, a bazy danych ewoluowały od sekwencyjnych indeksów do jednoczesnych transakcji, ekspansja Web3 ostatecznie przesunie się w kierunku wysoce równoległej ery wykonawczej. W tej epoce wydajność nie jest już tylko wyścigiem prędkości łańcucha, ale kompleksowym ucieleśnieniem podstawowej filozofii projektowania, głębokiego zrozumienia architektury, współpracy oprogramowania i sprzętu oraz kontroli systemu. A równoległość wewnątrz łańcucha może być ostatecznym polem bitwy w tej długotrwałej wojnie. 3. Wykres klasyfikacji obliczeń równoległych: pięć ścieżek od konta do instrukcji W kontekście ciągłej ewolucji technologii skalowania blockchain, przetwarzanie równoległe stopniowo stało się główną ścieżką do przełomowych odkryć w zakresie wydajności. W odróżnieniu od poziomego rozprzęgania warstwy struktury, warstwy sieciowej lub warstwy dostępności danych, przetwarzanie równoległe to głębokie wydobycie w warstwie wykonawczej, które jest związane z najniższą logiką wydajności operacyjnej łańcucha bloków i określa szybkość odpowiedzi i zdolność przetwarzania systemu blockchain w obliczu wysokiej współbieżności i wielotypowych złożonych transakcji. Wychodząc od modelu wykonawczego i dokonując przeglądu rozwoju tej linii technologicznej, możemy uporządkować przejrzystą mapę klasyfikacyjną obliczeń równoległych, którą można z grubsza podzielić na pięć ścieżek technicznych: równoległość na poziomie konta, równoległość na poziomie obiektu, równoległość na poziomie transakcji, równoległość na poziomie maszyny wirtualnej i równoległość na poziomie instrukcji. Te pięć typów ścieżek, od gruboziarnistych do drobnoziarnistych, to nie tylko ciągły proces udoskonalania logiki równoległej, ale także ścieżka rosnącej złożoności systemu i trudności w planowaniu. Najwcześniejszy równoległość na poziomie konta był reprezentowany przez Solana. Model ten opiera się na projekcie rozdzielenia konta i stanu i określa, czy istnieje relacja powodująca konflikt, poprzez statyczną analizę zestawu kont zaangażowanych w transakcję. Jeśli dwie transakcje uzyskują dostęp do zestawu kont, które nie nakładają się na siebie, mogą być wykonywane jednocześnie na wielu rdzeniach. Mechanizm ten jest idealny do radzenia sobie z dobrze ustrukturyzowanymi transakcjami z jasnymi danymi wejściowymi i wyjściowymi, szczególnie w przypadku programów o przewidywalnych ścieżkach, takich jak DeFi. Jednak jego naturalnym założeniem jest to, że dostęp do konta jest przewidywalny, a zależność od stanu można wywnioskować statycznie, co czyni go podatnym na konserwatywne wykonywanie i zmniejszoną równoległość w obliczu złożonych inteligentnych kontraktów (takich jak dynamiczne zachowania, takie jak gry łańcuchowe i agenci AI). Ponadto wzajemna zależność między rachunkami sprawia również, że równoległe zwroty są poważnie osłabione w niektórych scenariuszach handlu o wysokiej częstotliwości. Czas działania Solany jest wysoce zoptymalizowany pod tym względem, ale jego podstawowa strategia planowania jest nadal ograniczona przez stopień szczegółowości konta. Dalsze doprecyzowanie w oparciu o model konta, wchodzimy w techniczny poziom równoległości na poziomie obiektu. Równoległość na poziomie obiektu wprowadza semantyczną abstrakcję zasobów i modułów, z jednoczesnym planowaniem w bardziej szczegółowych jednostkach "obiektów stanu". Aptos i Sui są ważnymi badaczami w tym kierunku, zwłaszcza ten drugi, który definiuje własność i zmienność zasobów w czasie kompilacji za pomocą liniowego systemu typów języka Move, umożliwiając środowisku wykonawczemu precyzyjną kontrolę konfliktów dostępu do zasobów. W porównaniu z równoległością na poziomie konta ta metoda jest bardziej wszechstronna i skalowalna, może obejmować bardziej złożoną logikę odczytu i zapisu stanu oraz naturalnie obsługuje wysoce heterogeniczne scenariusze, takie jak gry, sieci społecznościowe i sztuczna inteligencja. Jednak równoległość na poziomie obiektu wprowadza również wyższy próg językowy i złożoność programowania, a Move nie jest bezpośrednim zamiennikiem Solidity, a wysoki koszt ekologicznego przełączania ogranicza popularyzację jego równoległego paradygmatu. Dalszy równoległość na poziomie transakcji to kierunek, w którym podąża nowa generacja wysokowydajnych łańcuchów reprezentowanych przez Monad, Sei i Fuel. Zamiast traktować stany lub konta jako najmniejszą jednostkę równoległości, ścieżka jest budowana wokół wykresu zależności wokół całej transakcji. Traktuje transakcje jako niepodzielne jednostki operacji, tworzy wykresy transakcji (grupy DAG transakcji) za pomocą analizy statycznej lub dynamicznej i opiera się na harmonogramach do współbieżnego wykonywania przepływów. Taka konstrukcja pozwala systemowi zmaksymalizować równoległość wydobycia bez konieczności pełnego zrozumienia podstawowej struktury stanu. Monad jest szczególnie godny uwagi ze względu na połączenie nowoczesnych technologii silników baz danych, takich jak Optimistic Concurrency Control (OCC), Parallel Pipeline Scheduling i Out-of-Order Execution, zbliżając wykonywanie łańcuchów do paradygmatu "harmonogramu GPU". W praktyce mechanizm ten wymaga niezwykle złożonych menedżerów zależności i detektorów konfliktów, a wąskim gardłem może stać się również sam scheduler, ale jego potencjalna przepustowość jest znacznie wyższa niż modelu konta czy obiektu, co czyni go najbardziej teoretyczną siłą w obecnej ścieżce obliczeń równoległych. Z drugiej strony równoległość na poziomie maszyny wirtualnej osadza możliwości współbieżnego wykonywania bezpośrednio w podstawowej logice planowania instrukcji maszyny wirtualnej, dążąc do całkowitego przełamania nieodłącznych ograniczeń wykonywania sekwencji EVM. MegaETH, jako "eksperyment z super maszyną wirtualną" w ekosystemie Ethereum, próbuje przeprojektować EVM, aby obsługiwał wielowątkowe jednoczesne wykonywanie kodu inteligentnego kontraktu. Warstwa podstawowa umożliwia każdemu kontraktowi niezależne uruchamianie w różnych kontekstach wykonywania za pomocą mechanizmów, takich jak wykonywanie segmentowane, segmentacja stanu i wywołanie asynchroniczne, a także zapewnia ostateczną spójność za pomocą warstwy synchronizacji równoległej. Najtrudniejszym aspektem tego podejścia jest to, że musi ono być w pełni kompatybilne z istniejącą semantyką zachowania EVM, przy jednoczesnej reorganizacji całego środowiska wykonawczego i mechanizmu gazowego, aby umożliwić ekosystemowi Solidity płynną migrację do równoległego frameworka. Wyzwaniem jest nie tylko głębokość stosu technologicznego, ale także akceptacja znaczących zmian w strukturze politycznej L1 Ethereum. Ale jeśli się powiedzie, MegaETH zapowiada się na "rewolucję procesorów wielordzeniowych" w przestrzeni EVM. Ostatnim typem ścieżki jest równoległość na poziomie instrukcji, która jest najbardziej szczegółowa i ma najwyższy próg techniczny. Pomysł wywodzi się z potoku wykonywania i instrukcji poza kolejnością w nowoczesnym projekcie procesora. Paradygmat ten twierdzi, że ponieważ każdy inteligentny kontrakt jest ostatecznie kompilowany w instrukcje kodu bajtowego, całkowicie możliwe jest zaplanowanie i przegrupowanie każdej operacji równolegle jako procesora wykonującego zestaw instrukcji x 86. Zespół Fuel początkowo wprowadził model wykonywania na poziomie instrukcji z możliwością ponownego uporządkowania w swoim FuelVM, a w dłuższej perspektywie, gdy silnik wykonawczy blockchain zaimplementuje predykcyjne wykonywanie i dynamiczne przegrupowanie zależności od instrukcji, jego równoległość osiągnie teoretyczny limit. Takie podejście może nawet przenieść wspólne projektowanie blockchain-hardware na zupełnie nowy poziom, czyniąc łańcuch prawdziwym "zdecentralizowanym komputerem", a nie tylko "rozproszoną księgą". Oczywiście ta ścieżka jest jeszcze w fazie teoretycznej i eksperymentalnej, a odpowiednie schedulery i mechanizmy weryfikacji bezpieczeństwa nie są jeszcze dojrzałe, ale wskazują na ostateczną granicę przyszłości obliczeń równoległych. Podsumowując, pięć ścieżek konta, obiektu, transakcji, maszyny wirtualnej i instrukcji stanowi spektrum rozwoju wewnątrzłańcuchowych obliczeń równoległych, od statycznej struktury danych po dynamiczny mechanizm planowania, od przewidywania dostępu do stanu po reorganizację na poziomie instrukcji, każdy krok technologii równoległej oznacza znaczny wzrost złożoności systemu i progu rozwoju. Ale jednocześnie oznaczają one również zmianę paradygmatu w modelu obliczeniowym blockchain, od tradycyjnego rejestru konsensusu pełnej sekwencji do wysokowydajnego, przewidywalnego i dyspozycyjnego rozproszonego środowiska wykonawczego. Jest to nie tylko nadrobienie zaległości w zakresie wydajności przetwarzania w chmurze Web2, ale także głęboka koncepcja ostatecznej formy "komputera blockchain". Wybór równoległych ścieżek dla różnych łańcuchów publicznych określi również akceptowalną górną granicę ich przyszłych ekosystemów aplikacji, a także ich podstawową konkurencyjność w scenariuszach takich jak AI Agent, gry łańcuchowe i handel on-chain o wysokiej częstotliwości. Po czwarte, wyjaśnione są dwie główne ścieżki: Monad vs MegaETH Spośród wielu ścieżek ewolucji obliczeń równoległych, dwie główne ścieżki techniczne o największym skupieniu, najwyższym głosie i najbardziej kompletnej narracji na obecnym rynku to bez wątpienia "budowanie równoległego łańcucha obliczeniowego od podstaw" reprezentowane przez Monad oraz "równoległa rewolucja w EVM" reprezentowana przez MegaETH. Te dwa są nie tylko najbardziej intensywnymi kierunkami badawczo-rozwojowymi dla obecnych prymitywnych inżynierów kryptograficznych, ale także najbardziej decydującymi symbolami biegunowymi w obecnym wyścigu wydajności komputerów Web3. Różnica między nimi polega nie tylko na punkcie wyjścia i stylu architektury technicznej, ale także na obiektach ekologicznych, którym służą, kosztach migracji, filozofii realizacji i przyszłej ścieżce strategicznej, która za nimi stoi. Reprezentują one równoległą konkurencję paradygmatu między "rekonstrukcjonizmem" a "kompatybilnizmem" i głęboko wpłynęły na wyobrażenia rynku o ostatecznej formie łańcuchów o wysokiej wydajności. Monad jest na wskroś "fundamentalistą obliczeniowym", a jego filozofia projektowania nie jest zaprojektowana tak, aby była kompatybilna z istniejącymi EVM, ale raczej aby na nowo zdefiniować podstawowy sposób, w jaki silniki wykonawcze blockchain działają pomysłowo, czerpiąc inspirację z nowoczesnych baz danych i wysokowydajnych systemów wielordzeniowych. Jego podstawowy system technologiczny opiera się na dojrzałych mechanizmach w dziedzinie baz danych, takich jak optymistyczna kontrola współbieżności, planowanie transakcji DAG, wykonywanie poza kolejnością i wykonywanie potokowe, mające na celu zwiększenie wydajności przetwarzania transakcji w łańcuchu do rzędu milionów TPS. W architekturze Monad wykonywanie i porządkowanie transakcji jest całkowicie rozłączone, a system najpierw buduje wykres zależności transakcji, a następnie przekazuje go do harmonogramu w celu równoległego wykonania. Wszystkie transakcje są traktowane jako niepodzielne jednostki transakcji, z jawnymi zestawami odczytu i zapisu oraz migawkami stanu, a harmonogramy są wykonywane optymistycznie na podstawie wykresów zależności, wycofując się i ponownie wykonując, gdy wystąpią konflikty. Mechanizm ten jest niezwykle złożony pod względem implementacji technicznej, wymagający budowy stosu wykonawczego podobnego do tego, jaki posiada nowoczesny menedżer transakcji bazy danych, a także wprowadzenia mechanizmów takich jak buforowanie wielopoziomowe, pobieranie z wyprzedzeniem, walidacja równoległa itp., w celu kompresji opóźnienia zatwierdzenia stanu końcowego, ale teoretycznie może przesunąć granicę przepustowości do wysokości, których nie wyobraża sobie obecny łańcuch. Co ważniejsze, Monad nie zrezygnował z interoperacyjności z EVM. Wykorzystuje warstwę pośrednią podobną do "Solidity-Compatible Intermediate Language", aby wspierać programistów w pisaniu kontraktów w składni Solidity, a jednocześnie przeprowadzać optymalizację języka pośredniego i planowanie równoległości w silniku wykonawczym. Ta strategia projektowania polegająca na "kompatybilności powierzchniowej i refaktoryzacji dna" nie tylko zachowuje przyjazność ekologicznych deweloperów Ethereum, ale także w największym stopniu uwalnia podstawowy potencjał wykonawczy, co jest typową strategią techniczną polegającą na "połykaniu EVM, a następnie jego dekonstrukcji". Oznacza to również, że po uruchomieniu Monad stanie się nie tylko suwerennym łańcuchem o ekstremalnej wydajności, ale także idealną warstwą wykonawczą dla sieci rollupowych warstwy 2, a nawet "podłączanym rdzeniem o wysokiej wydajności" dla innych modułów wykonawczych łańcucha w dłuższej perspektywie. Z tego punktu widzenia Monad to nie tylko droga techniczna, ale także nowa logika projektowania suwerenności systemu, która opowiada się za "modularyzacją, wydajnością i możliwością ponownego wykorzystania" warstwy wykonawczej, aby stworzyć nowy standard dla międzyłańcuchowego przetwarzania zespołowego. W przeciwieństwie do stanowiska Monada w sprawie "nowego budowniczego świata", MegaETH jest zupełnie odwrotnym rodzajem projektu, decydującym się na start od istniejącego świata Ethereum i osiągnięcie znacznego wzrostu wydajności realizacji przy minimalnych kosztach zmian. MegaETH nie obala specyfikacji EVM, ale raczej dąży do wbudowania możliwości obliczeń równoległych w silnik wykonawczy istniejących EVM, tworząc przyszłą wersję "wielordzeniowego EVM". Uzasadnieniem jest całkowita refaktoryzacja obecnego modelu wykonywania instrukcji EVM z takimi możliwościami, jak izolacja na poziomie wątku, asynchroniczne wykonywanie na poziomie kontraktu i wykrywanie konfliktów dostępu do stanu, co pozwala wielu inteligentnym kontraktom działać jednocześnie w tym samym bloku i ostatecznie scalać zmiany stanu. Model ten wymaga od programistów osiągnięcia znacznego wzrostu wydajności z tego samego kontraktu wdrożonego w łańcuchu MegaETH bez zmiany istniejących kontraktów Solidity, przy użyciu nowych języków lub łańcuchów narzędzi. Ta ścieżka "konserwatywnej rewolucji" jest niezwykle atrakcyjna, szczególnie dla ekosystemu Ethereum L2, ponieważ stanowi idealną ścieżkę do bezbolesnych ulepszeń wydajności bez konieczności migracji składni. Główny przełom w MegaETH polega na wielowątkowym mechanizmie planowania maszyn wirtualnych. Tradycyjne EVM wykorzystują stosowy, jednowątkowy model wykonywania, w którym każda instrukcja jest wykonywana liniowo, a aktualizacje stanu muszą odbywać się synchronicznie. MegaETH przełamuje ten wzorzec i wprowadza asynchroniczny stos wywołań i mechanizm izolacji kontekstu wykonywania, tak aby osiągnąć jednoczesne wykonywanie "współbieżnych kontekstów EVM". Każdy kontrakt może wywoływać własną logikę w osobnym wątku, a wszystkie wątki będą jednolicie wykrywać i zbieżne stan za pośrednictwem równoległej warstwy zatwierdzania, gdy stan zostanie ostatecznie przesłany. Mechanizm ten jest bardzo podobny do wielowątkowego modelu JavaScript nowoczesnych przeglądarek (Web Workers + Shared Memory + Lock-Free Data), który zachowuje determinizm zachowania głównego wątku i wprowadza wysokowydajny mechanizm planowania, który jest asynchroniczny w tle. W praktyce ten projekt jest również bardzo przyjazny dla budowniczych bloków i wyszukiwarek, a także może optymalizować porządkowanie mempool i ścieżki przechwytywania MEV zgodnie ze strategią równoległą, tworząc zamkniętą pętlę korzyści ekonomicznych w warstwie wykonawczej. Co ważniejsze, MegaETH decyduje się na głębokie powiązanie z ekosystemem Ethereum, a jego głównym miejscem lądowania w przyszłości będzie prawdopodobnie sieć EVM L2 Rollup, taka jak łańcuch Optimism, Base lub Arbitrum Orbit. Po przyjęciu na dużą skalę, może osiągnąć prawie 100-krotną poprawę wydajności w stosunku do istniejącego stosu technologicznego Ethereum bez zmiany semantyki kontraktów, modelu stanu, logiki gazu, metod wywoływania itp., co czyni go atrakcyjnym kierunkiem modernizacji technologii dla konserwatystów EVM. Paradygmat MegaETH jest następujący: tak długo, jak nadal robisz rzeczy na Ethereum, pozwolę, aby Twoja wydajność obliczeniowa gwałtownie wzrosła. Z punktu widzenia realizmu i inżynierii jest łatwiejszy do wdrożenia niż Monad i jest bardziej zgodny z iteracyjną ścieżką głównych projektów DeFi i NFT, co czyni go kandydatem, który ma większe szanse na otrzymanie wsparcia ekologicznego w krótkim okresie. W pewnym sensie dwie trasy Monad i MegaETH to nie tylko dwie implementacje równoległych ścieżek technologicznych, ale także klasyczna konfrontacja między "refaktoryzacją" a "kompatybilnością" na ścieżce rozwoju blockchain: pierwsza z nich dąży do przełomu w paradygmacie i rekonstruuje całą logikę od maszyn wirtualnych po leżące u podstaw zarządzanie stanem, aby osiągnąć najwyższą wydajność i plastyczność architektoniczną; Ten ostatni dąży do stopniowej optymalizacji, popychając tradycyjne systemy do granic możliwości, jednocześnie respektując istniejące ograniczenia ekologiczne, minimalizując w ten sposób koszty migracji. Nie ma między nimi absolutnych zalet ani wad, ale służą one różnym grupom programistów i wizjom ekosystemu. Monad jest bardziej odpowiedni do budowania nowych systemów od podstaw, gier łańcuchowych, które dążą do ekstremalnej przepustowości, agentów AI i modułowych łańcuchów wykonawczych. Z drugiej strony MegaETH jest bardziej odpowiedni dla projektów L2, projektów DeFi i protokołów infrastrukturalnych, które chcą osiągnąć wzrost wydajności przy minimalnych zmianach w rozwoju. Są jak pociągi dużych prędkości na nowym torze, przedefiniowane z toru, sieci energetycznej na karoserię, tylko po to, aby osiągnąć niespotykaną prędkość i doświadczenie; Innym przykładem jest instalowanie turbin na istniejących autostradach, poprawa harmonogramu pasów ruchu i konstrukcji silnika, dzięki czemu pojazdy mogą jechać szybciej bez opuszczania znanej sieci drogowej. Oba mogą skończyć się w ten sam sposób: w następnej fazie modułowych architektur blockchain, Monad może stać się modułem "egzekucji jako usługi" dla Rollupów, a MegaETH może stać się wtyczką przyspieszającą wydajność dla głównych L2. Te dwa elementy mogą ostatecznie się zjednoczyć, tworząc dwa skrzydła wysokowydajnego silnika wykonawczego rozproszonego w przyszłym świecie Web3. 5. Przyszłe możliwości i wyzwania związane z obliczeniami równoległymi W miarę jak przetwarzanie równoległe przechodzi od projektowania opartego na dokumentach papierowych do wdrażania on-chain, potencjał, który odblokowuje, staje się coraz bardziej konkretny i mierzalny. Z jednej strony widzimy, że nowe paradygmaty rozwoju i modele biznesowe zaczęły na nowo definiować "wydajność on-chain": bardziej złożona logika gier łańcuchowych, bardziej realistyczny cykl życia agenta AI, więcej protokołów wymiany danych w czasie rzeczywistym, bardziej wciągające interaktywne doświadczenia, a nawet systemy operacyjne Super App oparte na współpracy w łańcuchu zmieniają się z "czy możemy to zrobić" na "jak dobre to może być". Z drugiej strony, tym, co naprawdę napędza przejście na przetwarzanie równoległe, jest nie tylko liniowa poprawa wydajności systemu, ale także strukturalna zmiana granic poznawczych programistów i kosztów migracji ekologicznej. Tak jak wprowadzenie przez Ethereum mechanizmu kontraktów Turing-complete dało początek wielowymiarowej eksplozji DeFi, NFT i DAO, tak "asynchroniczna rekonstrukcja między stanem a instrukcjami" spowodowana przez obliczenia równoległe rodzi również nowy model świata on-chain, który jest nie tylko rewolucją w wydajności wykonania, ale także wylęgarnią innowacji w zakresie rozszczepienia w strukturze produktu. Przede wszystkim, z perspektywy możliwości, najbardziej bezpośrednią korzyścią jest "podniesienie pułapu aplikacji". Większość obecnych aplikacji DeFi, gier i aplikacji społecznościowych jest ograniczona przez wąskie gardła stanu, koszty gazu i opóźnienia i nie może naprawdę przenosić interakcji o wysokiej częstotliwości w łańcuchu na dużą skalę. Biorąc za przykład gry łańcuchowe, GameFi z rzeczywistym sprzężeniem zwrotnym ruchu, synchronizacją zachowań o wysokiej częstotliwości i logiką walki w czasie rzeczywistym prawie nie istnieje, ponieważ liniowe wykonanie tradycyjnych EVM nie może obsługiwać transmisyjnego potwierdzenia dziesiątek zmian stanu na sekundę. Dzięki wsparciu obliczeń równoległych, poprzez mechanizmy takie jak DAG transakcyjne i konteksty asynchroniczne na poziomie kontraktu, można konstruować łańcuchy o wysokiej współbieżności, a deterministyczne wyniki wykonywania można zagwarantować poprzez spójność migawek, aby osiągnąć strukturalny przełom w "silniku gier on-chain". Podobnie, wdrażanie i obsługa agentów AI również zostanie znacznie ulepszone dzięki przetwarzaniu równoległemu. W przeszłości mieliśmy tendencję do uruchamiania agentów AI poza łańcuchem i przesyłania wyników ich zachowań tylko do kontraktów on-chain, ale w przyszłości on-chain może obsługiwać asynchroniczną współpracę i udostępnianie stanów między wieloma podmiotami AI poprzez równoległe planowanie transakcji, aby naprawdę zrealizować autonomiczną logikę agenta w łańcuchu w czasie rzeczywistym. Obliczenia równoległe będą infrastrukturą dla tego "kontraktu opartego na zachowaniu", napędzając Web3 z "transakcji jako aktywa" do nowego świata "interakcji jako agenta". Po drugie, łańcuch narzędzi programistycznych i warstwa abstrakcji maszyn wirtualnych również zostały strukturalnie przekształcone ze względu na równoległość. Tradycyjny paradygmat rozwoju Solidity opiera się na modelu myślenia szeregowego, w którym programiści są przyzwyczajeni do projektowania logiki jako jednowątkowej zmiany stanu, ale w architekturach obliczeń równoległych programiści będą zmuszeni do myślenia o konfliktach zestawów odczytu/zapisu, zasadach izolacji stanu, nieotomności transakcji, a nawet wprowadzaniu wzorców architektonicznych opartych na kolejkach komunikatów lub potokach stanów. Ten skok w strukturze kognitywnej doprowadził również do szybkiego rozwoju nowej generacji łańcuchów narzędziowych. Na przykład równoległe ramy inteligentnych kontraktów, które obsługują deklaracje zależności transakcyjnych, kompilatory optymalizacyjne oparte na IR i współbieżne debuggery, które obsługują symulację migawek transakcji, staną się siedliskiem eksplozji infrastruktury w nowym cyklu. Jednocześnie ciągła ewolucja modułowych blockchainów przyniosła również doskonałą ścieżkę docelową dla obliczeń równoległych: Monad może zostać wstawiona do L2 Rollup jako moduł wykonawczy, MegaETH może być wdrożony jako zamiennik EVM dla głównych łańcuchów, Celestia zapewnia obsługę warstwy dostępności danych, a EigenLayer zapewnia zdecentralizowaną sieć walidatorów, tworząc w ten sposób wysokowydajną zintegrowaną architekturę od danych bazowych do logiki wykonania. Jednak postęp w dziedzinie obliczeń równoległych nie jest łatwą drogą, a wyzwania są jeszcze bardziej strukturalne i trudne do pokonania niż możliwości. Z jednej strony podstawowe trudności techniczne leżą w "gwarancji spójności współbieżności stanów" i "strategii radzenia sobie z konfliktami transakcji". W przeciwieństwie do baz danych poza łańcuchem, on-chain nie może tolerować arbitralnego stopnia wycofywania transakcji lub wycofywania stanu, a wszelkie konflikty wykonania muszą być modelowane z wyprzedzeniem lub precyzyjnie kontrolowane podczas zdarzenia. Oznacza to, że harmonogram równoległy musi mieć silne możliwości konstruowania wykresów zależności i przewidywania konfliktów, a jednocześnie zaprojektować wydajny mechanizm odporności na błędy wykonania optymistycznego, w przeciwnym razie system jest podatny na "burzę ponawiania prób jednoczesnych awarii" pod dużym obciążeniem, które nie tylko wzrasta, ale maleje, a nawet powoduje niestabilność łańcucha. Co więcej, obecny model bezpieczeństwa wielowątkowego środowiska wykonawczego nie został jeszcze w pełni ustalony, taki jak precyzja mechanizmu izolacji stanów między wątkami, nowe wykorzystanie ataków re-entrancy w kontekstach asynchronicznych oraz eksplozja gazu w krzyżowych wywołaniach kontraktów, które są nowymi problemami, które należy rozwiązać. Bardziej podstępne wyzwania wynikają z aspektów ekologicznych i psychologicznych. To, czy programiści są skłonni do migracji do nowego paradygmatu, czy są w stanie opanować metody projektowania modeli równoległych i czy są skłonni zrezygnować z części czytelności i audytowalności kontraktowej na rzecz korzyści w zakresie wydajności, jest kluczem do tego, czy obliczenia równoległe mogą tworzyć potencjalną energię ekologiczną. W ciągu ostatnich kilku lat zaobserwowaliśmy, że wiele łańcuchów o doskonałej wydajności, ale pozbawionych wsparcia dla programistów, stopniowo milknie, takich jak NEAR, Avalanche, a nawet niektóre łańcuchy Cosmos SDK, które znacznie przewyższają EVM, a ich doświadczenie przypomina nam, że bez programistów nie ma ekosystemu; Bez ekologii, bez względu na to, jak dobre są osiągi, jest to po prostu zamek w powietrzu. W związku z tym projekty obliczeń równoległych powinny nie tylko tworzyć najsilniejszy silnik, ale także najłagodniejszą ścieżkę przejścia ekologicznego, tak aby "wydajność była gotowa do użycia", a nie "wydajność była progiem poznawczym". Ostatecznie przyszłość obliczeń równoległych jest zarówno triumfem inżynierii systemów, jak i testem dla ekoprojektowania. Zmusi nas to do ponownego zastanowienia się nad tym, "co jest istotą łańcucha": czy jest to zdecentralizowana maszyna rozliczeniowa, czy globalnie rozproszony koordynator stanu w czasie rzeczywistym? Jeśli tak jest w drugim przypadku, to możliwości przepustowości stanu, współbieżności transakcji i responsywności kontraktów, które wcześniej były uważane za "szczegóły techniczne łańcucha", ostatecznie staną się podstawowymi wskaźnikami definiującymi wartość łańcucha. Paradygmat obliczeń równoległych, który naprawdę zakończy tę transformację, stanie się również najbardziej podstawowym i najbardziej złożonym prymitywem infrastruktury w tym nowym cyklu, a jego wpływ będzie wykraczał daleko poza moduł techniczny i może stanowić punkt zwrotny w ogólnym paradygmacie obliczeniowym Web3. 6. Wniosek: Czy przetwarzanie równoległe jest najlepszą ścieżką do natywnego skalowania Web3? Spośród wszystkich ścieżek, które badają granice wydajności Web3, przetwarzanie równoległe nie jest najłatwiejsze do wdrożenia, ale może być najbliższe istocie blockchaina. Nie migruje poza łańcuch, ani nie poświęca decentralizacji w zamian za przepustowość, ale stara się zrekonstruować sam model wykonawczy w atomowości i determinizmie łańcucha, od warstwy transakcji, warstwy kontraktów i warstwy maszyn wirtualnych do źródła wąskiego gardła wydajności. Ta "natywna dla łańcucha" metoda skalowania nie tylko zachowuje podstawowy model zaufania blockchaina, ale także rezerwuje zrównoważoną glebę wydajności dla bardziej złożonych aplikacji on-chain w przyszłości. Jego trudność tkwi w strukturze, a jego urok tkwi w strukturze. Jeśli refaktoryzacja modułowa jest "architekturą łańcucha", to refaktoryzacja obliczeń równoległych jest "duszą łańcucha". Być może nie jest to droga na skróty do odprawy celnej, ale prawdopodobnie będzie to jedyne trwałe pozytywne rozwiązanie w długoterminowej ewolucji Web3. Jesteśmy świadkami przejścia architektury od procesorów jednordzeniowych do wielordzeniowych/wielowątkowych systemów operacyjnych, a pojawienie się natywnych dla Web3 systemów operacyjnych może być ukryte w tych równoległych eksperymentach w łańcuchu.
Pokaż oryginał
124,27 tys.
1
TechFlow
TechFlow
1. Wprowadzenie: Ekspansja jest wieczną propozycją, a równoległość jest ostatecznym polem bitwy Od narodzin Bitcoina, system blockchain zawsze borykał się z nieuniknionym podstawowym problemem: skalowaniem. Bitcoin przetwarza mniej niż 10 transakcji na sekundę, a Ethereum ma trudności z przebiciem się przez wąskie gardło wydajności dziesiątek TPS (transakcji na sekundę), co jest szczególnie uciążliwe w tradycyjnym świecie Web2, który często wynosi dziesiątki tysięcy TPS. Co ważniejsze, nie jest to prosty problem, który można rozwiązać poprzez "dodawanie serwerów", ale ograniczenie systemowe głęboko osadzone w podstawowym konsensusie i projekcie strukturalnym blockchaina - czyli niemożliwym trójkącie łańcucha bloków, w którym nie można połączyć "decentralizacji, bezpieczeństwa i skalowalności". W ciągu ostatniej dekady byliśmy świadkami niezliczonych prób ekspansji, które wznosiły się i upadały. Od wojny o skalowanie Bitcoina po wizję shardingu Ethereum, od kanałów stanowych i plazmy po rollupy i modułowe blockchainy, od realizacji poza łańcuchem w warstwie 2 po strukturalną refaktoryzację dostępności danych, cała branża wkroczyła na ścieżkę skalowania pełną inżynieryjnej wyobraźni. Jako najszerzej akceptowany paradygmat skalowania, rollup osiągnął cel, jakim jest znaczne zwiększenie TPS przy jednoczesnym zmniejszeniu obciążenia wykonawczego głównego łańcucha i zachowaniu bezpieczeństwa Ethereum. Nie dotyka to jednak prawdziwych granic leżącej u podstaw blockchaina "wydajności pojedynczego łańcucha", zwłaszcza na poziomie wykonania, który jest przepustowością samego bloku – jest nadal ograniczony przez starożytny paradygmat przetwarzania obliczeń szeregowych w łańcuchu. Z tego powodu przetwarzanie równoległe w łańcuchu stopniowo wkroczyło w pole widzenia branży. W odróżnieniu od skalowania poza łańcuchem i dystrybucji między łańcuchami, równoległość wewnątrz łańcucha próbuje całkowicie zrekonstruować silnik wykonawczy przy zachowaniu niepodzielności i zintegrowanej struktury pojedynczego łańcucha, a także aktualizuje łańcuch bloków z trybu jednowątkowego "szeregowego wykonywania jednej transakcji po drugiej" do systemu obliczeniowego o wysokiej współbieżności "wielowątkowość + potok + planowanie zależności" pod kierunkiem nowoczesnego systemu operacyjnego i projektu procesora. Taka ścieżka może nie tylko osiągnąć stukrotny wzrost przepustowości, ale także może stać się kluczowym warunkiem wstępnym dla eksplozji aplikacji inteligentnych kontraktów. W rzeczywistości w paradygmacie obliczeń Web2 przetwarzanie jednowątkowe już dawno zostało wyeliminowane przez nowoczesne architektury sprzętowe i zastąpione przez niekończący się strumień modeli optymalizacji, takich jak programowanie równoległe, planowanie asynchroniczne, pule wątków i mikrousługi. Blockchain, jako bardziej prymitywny i konserwatywny system obliczeniowy o niezwykle wysokich wymaganiach dotyczących pewności i weryfikowalności, nigdy nie był w stanie w pełni wykorzystać tych pomysłów na obliczenia równoległe. Jest to zarówno ograniczenie, jak i szansa. Nowe łańcuchy, takie jak Solana, Sui i Aptos, są pierwszymi, które rozpoczynają tę eksplorację, wprowadzając równoległość na poziomie architektury. Pojawiające się projekty, takie jak Monad i MegaETH, jeszcze bardziej podniosły równoległość on-chain do przełomów w głębokich mechanizmach, takich jak wykonywanie potoków, optymistyczna współbieżność i asynchroniczne sterowanie komunikatami, wykazując cechy, które coraz bardziej zbliżają się do nowoczesnych systemów operacyjnych. Można powiedzieć, że obliczenia równoległe to nie tylko "metoda optymalizacji wydajności", ale także punkt zwrotny w paradygmacie modelu wykonawczego blockchain. Rzuca wyzwanie podstawowym wzorcom realizacji inteligentnych kontraktów i na nowo definiuje podstawową logikę pakowania transakcji, dostępu do stanu, relacji połączeń i układu pamięci masowej. Jeśli rollup polega na "przenoszeniu transakcji do wykonania poza łańcuchem", to równoległość on-chain to "budowanie rdzeni superkomputerowych w łańcuchu", a jego celem nie jest po prostu poprawa przepustowości, ale zapewnienie prawdziwie zrównoważonego wsparcia infrastrukturalnego dla przyszłych natywnych aplikacji Web3 (handel o wysokiej częstotliwości, silniki gier, wykonywanie modeli AI, społecznościowe on-chain itp.). Po tym, jak ścieżka rollupu stopniowo dąży do jednorodności, równoległość wewnątrz łańcucha po cichu staje się decydującą zmienną nowego cyklu konkurencji warstwy 1. Wydajność to już nie tylko "szybsza maszyna", ale możliwość obsługi całego heterogenicznego świata aplikacji. To nie tylko wyścig techniczny, ale także walka o paradygmat. Następna generacja suwerennych platform wykonawczych w świecie Web3 prawdopodobnie wyłoni się z tych równoległych zapasów wewnątrz łańcucha. 2. Paradygmat panoramy ekspansji: pięć rodzajów tras, z których każda ma swój własny nacisk Rozbudowa zdolności produkcyjnych, jako jeden z najważniejszych, trwałych i najtrudniejszych tematów w ewolucji technologii łańcucha publicznego, doprowadziła do powstania i ewolucji prawie wszystkich głównych ścieżek technologicznych w ciągu ostatniej dekady. Zaczynając od bitwy o rozmiar bloku Bitcoina, ten techniczny konkurs na temat "jak przyspieszyć działanie łańcucha" ostatecznie podzielił się na pięć podstawowych tras, z których każda wcina się w wąskie gardło pod innym kątem, z własną filozofią techniczną, trudnością lądowania, modelem ryzyka i możliwymi do zastosowania scenariuszami. Pierwsza droga to najprostsze skalowanie on-chain, co oznacza zwiększenie rozmiaru bloku, skrócenie czasu bloku lub poprawę mocy obliczeniowej poprzez optymalizację struktury danych i mechanizmu konsensusu. Podejście to było przedmiotem debaty na temat skalowania Bitcoina, dając początek forkom "big block", takim jak BCH i BSV, a także wpływając na pomysły projektowe wczesnych, wysokowydajnych łańcuchów publicznych, takich jak EOS i NEO. Zaletą tego rodzaju trasy jest to, że zachowuje prostotę spójności pojedynczego łańcucha, która jest łatwa do zrozumienia i wdrożenia, ale bardzo łatwo jest również dotknąć systemowej górnej granicy, takiej jak ryzyko centralizacji, rosnące koszty operacyjne węzłów i zwiększona trudność synchronizacji, więc nie jest to już główne rozwiązanie rdzeniowe w dzisiejszym projekcie, ale stało się bardziej pomocniczą kolokacją innych mechanizmów. Drugim typem trasy jest skalowanie poza łańcuchem, które jest reprezentowane przez kanały stanów i łańcuchy boczne. Podstawową ideą tego typu ścieżki jest przeniesienie większości aktywności transakcyjnej poza łańcuch i zapisanie tylko końcowego wyniku do głównego łańcucha, który działa jako końcowa warstwa rozliczeniowa. Pod względem filozofii technicznej jest to bliskie asynchronicznej architekturze Web2 - staraj się pozostawić ciężkie przetwarzanie transakcji na peryferiach, a główny łańcuch przeprowadza minimalną zaufaną weryfikację. Chociaż idea ta może być teoretycznie nieskończenie skalowalna, model zaufania, bezpieczeństwo funduszy i złożoność interakcji transakcji poza łańcuchem ograniczają jej zastosowanie. Na przykład, chociaż Lightning Network ma jasne pozycjonowanie scenariuszy finansowych, skala ekosystemu nigdy nie eksplodowała. Jednak wiele projektów opartych na sidechainach, takich jak Polygon POS, nie tylko ma wysoką przepustowość, ale także ujawnia wady trudnego dziedziczenia bezpieczeństwa głównego łańcucha. Trzeci typ trasy to najpopularniejsza i najczęściej wdrażana trasa zbiorcza warstwy 2. Ta metoda nie zmienia bezpośrednio samego głównego łańcucha, ale skaluje się poprzez mechanizm realizacji poza łańcuchem i weryfikacji on-chain. Optimistic Rollup i ZK Rollup mają swoje zalety: ten pierwszy jest szybki do wdrożenia i wysoce kompatybilny, ale ma problemy z opóźnieniem w okresie kwestionowania i mechanizmem odpornym na oszustwa; Ten ostatni ma silne zabezpieczenia i dobre możliwości kompresji danych, ale jest skomplikowany do opracowania i brakuje mu kompatybilności z EVM. Bez względu na to, jaki to jest rodzaj rollupu, jego istotą jest outsourcing mocy wykonawczej, przy jednoczesnym zachowaniu danych i weryfikacji w głównym łańcuchu, osiągając względną równowagę między decentralizacją a wysoką wydajnością. Szybki rozwój projektów takich jak Arbitrum, Optimism, zkSync i StarkNet dowodzi wykonalności tej ścieżki, ale ujawnia również średnioterminowe wąskie gardła, takie jak nadmierne poleganie na dostępności danych (DA), wysokie koszty i fragmentaryczne doświadczenie w programowaniu. Czwartym rodzajem trasy jest modułowa architektura blockchain, która pojawiła się w ostatnich latach, taka jak Celestia, Avail, EigenLayer itp. Paradygmat modułowy opowiada się za całkowitym oddzieleniem podstawowych funkcji blockchaina - wykonywania, konsensusu, dostępności danych i rozliczeń - przez wiele wyspecjalizowanych łańcuchów w celu wykonania różnych funkcji, a następnie połączenia ich w skalowalną sieć za pomocą protokołu cross-chain. Duży wpływ na ten kierunek ma modułowa architektura systemu operacyjnego oraz koncepcja komponowalności chmury obliczeniowej, która ma tę zaletę, że umożliwia elastyczną wymianę komponentów systemu i znacznie poprawia wydajność w określonych obszarach, takich jak DA. Jednak wyzwania są również bardzo oczywiste: koszt synchronizacji, weryfikacji i wzajemnego zaufania między systemami po oddzieleniu modułów jest niezwykle wysoki, ekosystem programistów jest niezwykle rozdrobniony, a wymagania dotyczące średnio- i długoterminowych standardów protokołów i bezpieczeństwa cross-chain są znacznie wyższe niż w przypadku tradycyjnego projektowania łańcuchów. W istocie, model ten nie buduje już "łańcucha", ale buduje "sieć łańcuchową", co stanowi bezprecedensowy próg dla ogólnego zrozumienia architektury, obsługi i utrzymania. Ostatnim typem trasy, na którym skupi się późniejsza analiza w tym artykule, jest wewnątrzłańcuchowa ścieżka optymalizacji obliczeń równoległych. W przeciwieństwie do pierwszych czterech typów "podziału poziomego", które przeprowadzają głównie "podział poziomy" z poziomu strukturalnego, obliczenia równoległe kładą nacisk na "ulepszenie pionowe", to znaczy jednoczesne przetwarzanie transakcji atomowych odbywa się poprzez zmianę architektury silnika wykonawczego w ramach jednego łańcucha. Wymaga to przepisania logiki planowania maszyn wirtualnych i wprowadzenia pełnego zestawu nowoczesnych mechanizmów planowania systemów komputerowych, takich jak analiza zależności transakcji, przewidywanie konfliktów stanów, kontrola równoległości i wywołania asynchroniczne. Solana jest pierwszym projektem, który implementuje koncepcję równoległej maszyny wirtualnej do systemu na poziomie łańcucha, który realizuje równoległe wykonywanie wielu rdzeni poprzez ocenę konfliktu transakcji w oparciu o model konta. Nowa generacja projektów, takich jak Monad, Sei, Fuel, MegaETH itp., próbuje dalej wprowadzać najnowocześniejsze pomysły, takie jak wykonywanie potoków, optymistyczna współbieżność, partycjonowanie pamięci masowej i równoległe rozprzęganie w celu zbudowania wysokowydajnych rdzeni wykonawczych podobnych do nowoczesnych procesorów. Główną zaletą tego kierunku jest to, że nie musi on polegać na architekturze wielołańcuchowej, aby osiągnąć przełom w limicie przepustowości, a jednocześnie zapewnia wystarczającą elastyczność obliczeniową do wykonywania złożonych inteligentnych kontraktów, co jest ważnym technicznym warunkiem wstępnym dla przyszłych scenariuszy zastosowań, takich jak AI Agent, gry łańcuchowe na dużą skalę i pochodne wysokiej częstotliwości. Patrząc na powyższe pięć typów ścieżek skalowania, podział, który za nimi stoi, to w rzeczywistości systematyczny kompromis między wydajnością, komponowalnością, bezpieczeństwem i złożonością rozwoju blockchaina. Rollup jest silny w outsourcingu konsensusu i bezpiecznym dziedziczeniu, modułowość podkreśla elastyczność strukturalną i ponowne wykorzystanie komponentów, skalowanie poza łańcuchem próbuje przebić się przez wąskie gardło głównego łańcucha, ale koszt zaufania jest wysoki, a równoległość wewnątrz łańcucha koncentruje się na fundamentalnym ulepszeniu warstwy wykonawczej, próbując zbliżyć się do granicy wydajności nowoczesnych systemów rozproszonych bez niszczenia spójności łańcucha. Niemożliwe jest, aby każda ze ścieżek rozwiązała wszystkie problemy, ale to właśnie te kierunki razem tworzą panoramę aktualizacji paradygmatu obliczeniowego Web3, a także zapewniają deweloperom, architektom i inwestorom niezwykle bogate opcje strategiczne. Tak jak system operacyjny przesunął się z jednordzeniowego na wielordzeniowy, a bazy danych ewoluowały od sekwencyjnych indeksów do jednoczesnych transakcji, ekspansja Web3 ostatecznie przesunie się w kierunku wysoce równoległej ery wykonawczej. W tej epoce wydajność nie jest już tylko wyścigiem prędkości łańcucha, ale kompleksowym ucieleśnieniem podstawowej filozofii projektowania, głębokiego zrozumienia architektury, współpracy oprogramowania i sprzętu oraz kontroli systemu. A równoległość wewnątrz łańcucha może być ostatecznym polem bitwy w tej długotrwałej wojnie. 3. Wykres klasyfikacji obliczeń równoległych: pięć ścieżek od konta do instrukcji W kontekście ciągłej ewolucji technologii skalowania blockchain, przetwarzanie równoległe stopniowo stało się główną ścieżką do przełomowych odkryć w zakresie wydajności. W odróżnieniu od poziomego rozprzęgania warstwy struktury, warstwy sieciowej lub warstwy dostępności danych, przetwarzanie równoległe to głębokie wydobycie w warstwie wykonawczej, które jest związane z najniższą logiką wydajności operacyjnej łańcucha bloków i określa szybkość odpowiedzi i zdolność przetwarzania systemu blockchain w obliczu wysokiej współbieżności i wielotypowych złożonych transakcji. Wychodząc od modelu wykonawczego i dokonując przeglądu rozwoju tej linii technologicznej, możemy uporządkować przejrzystą mapę klasyfikacyjną obliczeń równoległych, którą można z grubsza podzielić na pięć ścieżek technicznych: równoległość na poziomie konta, równoległość na poziomie obiektu, równoległość na poziomie transakcji, równoległość na poziomie maszyny wirtualnej i równoległość na poziomie instrukcji. Te pięć typów ścieżek, od gruboziarnistych do drobnoziarnistych, to nie tylko ciągły proces udoskonalania logiki równoległej, ale także ścieżka rosnącej złożoności systemu i trudności w planowaniu. Najwcześniejszym równoległym poziomem konta jest paradygmat reprezentowany przez Solana. Model ten opiera się na projekcie rozdzielenia konta i stanu i określa, czy istnieje relacja powodująca konflikt, poprzez statyczną analizę zestawu kont zaangażowanych w transakcję. Jeśli dwie transakcje uzyskują dostęp do zestawu kont, które nie nakładają się na siebie, mogą być wykonywane jednocześnie na wielu rdzeniach. Mechanizm ten jest idealny do radzenia sobie z dobrze ustrukturyzowanymi transakcjami z jasnymi danymi wejściowymi i wyjściowymi, szczególnie w przypadku programów o przewidywalnych ścieżkach, takich jak DeFi. Jednak jego naturalnym założeniem jest to, że dostęp do konta jest przewidywalny, a zależność od stanu można wywnioskować statycznie, co czyni go podatnym na konserwatywne wykonywanie i zmniejszoną równoległość w obliczu złożonych inteligentnych kontraktów (takich jak dynamiczne zachowania, takie jak gry łańcuchowe i agenci AI). Ponadto wzajemna zależność między rachunkami sprawia również, że równoległe zwroty są poważnie osłabione w niektórych scenariuszach handlu o wysokiej częstotliwości. Czas działania Solany jest wysoce zoptymalizowany pod tym względem, ale jego podstawowa strategia planowania jest nadal ograniczona przez stopień szczegółowości konta. Dalsze doprecyzowanie w oparciu o model konta, wchodzimy w techniczny poziom równoległości na poziomie obiektu. Równoległość na poziomie obiektu wprowadza semantyczną abstrakcję zasobów i modułów, z jednoczesnym planowaniem w bardziej szczegółowych jednostkach "obiektów stanu". Aptos i Sui są ważnymi badaczami w tym kierunku, zwłaszcza ten drugi, który definiuje własność i zmienność zasobów w czasie kompilacji za pomocą liniowego systemu typów języka Move, umożliwiając środowisku wykonawczemu precyzyjną kontrolę konfliktów dostępu do zasobów. W porównaniu z równoległością na poziomie konta ta metoda jest bardziej wszechstronna i skalowalna, może obejmować bardziej złożoną logikę odczytu i zapisu stanu oraz naturalnie obsługuje wysoce heterogeniczne scenariusze, takie jak gry, sieci społecznościowe i sztuczna inteligencja. Jednak równoległość na poziomie obiektu wprowadza również większe bariery językowe i złożoność programowania, a Move nie jest bezpośrednim zamiennikiem Solidity, a wysoki koszt ekologicznego przełączania ogranicza popularność jego równoległego paradygmatu. Dalszy równoległość na poziomie transakcji to kierunek, w którym podąża nowa generacja wysokowydajnych łańcuchów reprezentowanych przez Monad, Sei i Fuel. Zamiast traktować stany lub konta jako najmniejszą jednostkę równoległości, ścieżka jest budowana wokół wykresu zależności wokół całej transakcji. Traktuje transakcje jako niepodzielne jednostki operacji, tworzy wykresy transakcji (grupy DAG transakcji) za pomocą analizy statycznej lub dynamicznej i opiera się na harmonogramach do współbieżnego wykonywania przepływów. Taka konstrukcja pozwala systemowi zmaksymalizować równoległość wydobycia bez konieczności pełnego zrozumienia podstawowej struktury stanu. Monad jest szczególnie przyciągający wzrok, łącząc nowoczesne technologie silnika bazy danych, takie jak Optimistic Concurrency Control (OCC), równoległe planowanie potoków i wykonywanie poza kolejnością, zbliżając wykonywanie łańcucha do paradygmatu "harmonogramu GPU". W praktyce mechanizm ten wymaga niezwykle złożonych menedżerów zależności i detektorów konfliktów, a wąskim gardłem może stać się również sam scheduler, ale jego potencjalna przepustowość jest znacznie wyższa niż modelu konta czy obiektu, co czyni go najbardziej teoretyczną siłą w obecnej ścieżce obliczeń równoległych. Z drugiej strony równoległość na poziomie maszyny wirtualnej osadza możliwości współbieżnego wykonywania bezpośrednio w podstawowej logice planowania instrukcji maszyny wirtualnej, dążąc do całkowitego przełamania nieodłącznych ograniczeń wykonywania sekwencji EVM. Jako "eksperyment z super maszyną wirtualną" w ekosystemie Ethereum, MegaETH próbuje przeprojektować EVM, aby obsługiwał wielowątkowe jednoczesne wykonywanie kodu inteligentnych kontraktów. Warstwa podstawowa umożliwia każdemu kontraktowi niezależne uruchamianie w różnych kontekstach wykonywania za pomocą mechanizmów, takich jak wykonywanie segmentowane, segmentacja stanu i wywołanie asynchroniczne, a także zapewnia ostateczną spójność za pomocą warstwy synchronizacji równoległej. Najtrudniejszą częścią tego podejścia jest to, że musi ono być w pełni kompatybilne z istniejącą semantyką zachowań EVM, a jednocześnie przekształcać całe środowisko wykonawcze i mechanizm gazowy, aby płynnie migrować ekosystem Solidity do równoległego frameworka. Wyzwaniem jest nie tylko głębokość stosu technologicznego, ale także akceptacja znaczących zmian w strukturze politycznej L1 Ethereum. Ale jeśli się powiedzie, MegaETH zapowiada się na "rewolucję procesorów wielordzeniowych" w przestrzeni EVM. Ostatnim typem ścieżki jest równoległość na poziomie instrukcji, która jest najbardziej szczegółowa i ma najwyższy próg techniczny. Pomysł wywodzi się z potoków wykonywania i instrukcji po zakończeniu w nowoczesnej konstrukcji procesora. Paradygmat ten twierdzi, że ponieważ każdy inteligentny kontrakt jest ostatecznie kompilowany do instrukcji kodu bajtowego, całkowicie możliwe jest zaplanowanie i przeanalizowanie każdej operacji oraz równoległe przegrupowanie jej w taki sam sposób, w jaki procesor wykonuje zestaw instrukcji x86. Zespół Fuel początkowo wprowadził w swoim FuelVM model wykonywania na poziomie instrukcji, a w dłuższej perspektywie, gdy silnik wykonawczy blockchain zaimplementuje predykcyjne wykonywanie i dynamiczne przegrupowanie zależnych od instrukcji, jego równoległość osiągnie teoretyczny limit. Takie podejście może nawet przenieść wspólne projektowanie blockchain-hardware na zupełnie nowy poziom, czyniąc łańcuch prawdziwym "zdecentralizowanym komputerem", a nie tylko "rozproszoną księgą". Oczywiście ta ścieżka jest jeszcze w fazie teoretycznej i eksperymentalnej, a odpowiednie schedulery i mechanizmy weryfikacji bezpieczeństwa nie są jeszcze dojrzałe, ale wskazują na ostateczną granicę przyszłości obliczeń równoległych. Podsumowując, pięć ścieżek konta, obiektu, transakcji, maszyny wirtualnej i instrukcji stanowi spektrum rozwoju wewnątrzłańcuchowych obliczeń równoległych, od statycznej struktury danych po dynamiczny mechanizm planowania, od przewidywania dostępu do stanu po reorganizację na poziomie instrukcji, każdy krok technologii równoległej oznacza znaczny wzrost złożoności systemu i progu rozwoju. Ale jednocześnie oznaczają one również zmianę paradygmatu w modelu obliczeniowym blockchain, od tradycyjnego rejestru konsensusu pełnej sekwencji do wysokowydajnego, przewidywalnego i dyspozycyjnego rozproszonego środowiska wykonawczego. Jest to nie tylko nadrobienie zaległości w zakresie wydajności przetwarzania w chmurze Web2, ale także głęboka koncepcja ostatecznej formy "komputera blockchain". Wybór równoległych ścieżek dla różnych łańcuchów publicznych określi również limit nośny ich przyszłych ekosystemów aplikacji, a także ich podstawową konkurencyjność w scenariuszach takich jak AI Agent, gry łańcuchowe i handel on-chain o wysokiej częstotliwości. Po czwarte, wyjaśnione są dwie główne ścieżki: Monad vs MegaETH Spośród wielu ścieżek ewolucji obliczeń równoległych, dwie główne ścieżki techniczne o największym skupieniu, najwyższym głosie i najbardziej kompletnej narracji na obecnym rynku to bez wątpienia "budowanie równoległego łańcucha obliczeniowego od podstaw" reprezentowane przez Monad oraz "równoległa rewolucja w EVM" reprezentowana przez MegaETH. Te dwa są nie tylko najbardziej intensywnymi kierunkami badawczo-rozwojowymi dla obecnych prymitywnych inżynierów kryptograficznych, ale także najbardziej decydującymi symbolami biegunowymi w obecnym wyścigu wydajności komputerów Web3. Różnica między nimi polega nie tylko na punkcie wyjścia i stylu architektury technicznej, ale także na obiektach ekologicznych, którym służą, kosztach migracji, filozofii realizacji i przyszłej ścieżce strategicznej, która za nimi stoi. Reprezentują one równoległą konkurencję paradygmatu między "rekonstrukcjonizmem" a "kompatybilnizmem" i głęboko wpłynęły na wyobrażenia rynku o ostatecznej formie łańcuchów o wysokiej wydajności. Monad jest na wskroś "fundamentalistą obliczeniowym", a jego filozofia projektowania nie jest zaprojektowana tak, aby była kompatybilna z istniejącymi EVM, ale raczej aby na nowo zdefiniować sposób, w jaki silniki wykonawcze blockchain działają pod maską, czerpiąc inspirację z nowoczesnych baz danych i wysokowydajnych systemów wielordzeniowych. Jego podstawowy system technologiczny opiera się na dojrzałych mechanizmach w dziedzinie baz danych, takich jak optymistyczna kontrola współbieżności, planowanie transakcji DAG, wykonywanie poza kolejnością i wykonywanie potokowe, mające na celu zwiększenie wydajności przetwarzania transakcji w łańcuchu do rzędu milionów TPS. W architekturze Monad wykonywanie i porządkowanie transakcji jest całkowicie rozłączone, a system najpierw buduje wykres zależności transakcji, a następnie przekazuje go do harmonogramu w celu równoległego wykonania. Wszystkie transakcje są traktowane jako niepodzielne jednostki transakcji, z jawnymi zestawami odczytu i zapisu oraz migawkami stanu, a harmonogramy są wykonywane optymistycznie na podstawie wykresów zależności, wycofując się i ponownie wykonując, gdy wystąpią konflikty. Mechanizm ten jest niezwykle złożony pod względem implementacji technicznej, wymagający budowy stosu wykonawczego podobnego do tego, jaki posiada nowoczesny menedżer transakcji bazy danych, a także wprowadzenia mechanizmów takich jak buforowanie wielopoziomowe, pobieranie z wyprzedzeniem, walidacja równoległa itp., w celu kompresji opóźnienia zatwierdzenia stanu końcowego, ale teoretycznie może przesunąć granicę przepustowości do wysokości, których nie wyobraża sobie obecny łańcuch. Co ważniejsze, Monad nie zrezygnował z interoperacyjności z EVM. Wykorzystuje warstwę pośrednią podobną do "Solidity-Compatible Intermediate Language", aby wspierać programistów w pisaniu kontraktów w składni Solidity, a jednocześnie przeprowadzać optymalizację języka pośredniego i planowanie równoległości w silniku wykonawczym. Ta strategia projektowania polegająca na "kompatybilności powierzchniowej i refaktoryzacji dna" nie tylko zachowuje przyjazność ekologicznych deweloperów Ethereum, ale także w największym stopniu uwalnia podstawowy potencjał wykonawczy, co jest typową strategią techniczną polegającą na "połykaniu EVM, a następnie jego dekonstrukcji". Oznacza to również, że po uruchomieniu Monad stanie się nie tylko suwerennym łańcuchem o ekstremalnej wydajności, ale także idealną warstwą wykonawczą dla sieci rollupowych warstwy 2, a nawet "podłączanym rdzeniem o wysokiej wydajności" dla innych modułów wykonawczych łańcucha w dłuższej perspektywie. Z tego punktu widzenia Monad to nie tylko droga techniczna, ale także nowa logika projektowania suwerenności systemu, która opowiada się za "modularyzacją, wydajnością i możliwością ponownego wykorzystania" warstwy wykonawczej, aby stworzyć nowy standard dla międzyłańcuchowego przetwarzania zespołowego. W przeciwieństwie do stanowiska Monada w sprawie "nowego budowniczego świata", MegaETH jest zupełnie odwrotnym typem projektu, który decyduje się na start od istniejącego świata Ethereum i osiągnięcie znacznego wzrostu wydajności realizacji przy minimalnych kosztach zmian. MegaETH nie wywraca do góry nogami specyfikacji EVM, ale raczej stara się wbudować moc obliczeń równoległych w silnik wykonawczy istniejącego EVM, tworząc przyszłą wersję "wielordzeniowego EVM". Uzasadnieniem jest całkowita refaktoryzacja obecnego modelu wykonywania instrukcji EVM z takimi możliwościami, jak izolacja na poziomie wątku, asynchroniczne wykonywanie na poziomie kontraktu i wykrywanie konfliktów dostępu do stanu, co pozwala wielu inteligentnym kontraktom działać jednocześnie w tym samym bloku i ostatecznie scalać zmiany stanu. Model ten wymaga od programistów osiągnięcia znacznego wzrostu wydajności z tego samego kontraktu wdrożonego w łańcuchu MegaETH bez zmiany istniejących kontraktów Solidity, przy użyciu nowych języków lub łańcuchów narzędzi. Ta ścieżka "konserwatywnej rewolucji" jest niezwykle atrakcyjna, szczególnie dla ekosystemu Ethereum L2, ponieważ stanowi idealną ścieżkę do bezbolesnych ulepszeń wydajności bez konieczności migracji składni. Główny przełom w MegaETH polega na wielowątkowym mechanizmie planowania maszyn wirtualnych. Tradycyjne EVM wykorzystują stosowy, jednowątkowy model wykonywania, w którym każda instrukcja jest wykonywana liniowo, a aktualizacje stanu muszą odbywać się synchronicznie. MegaETH przełamuje ten wzorzec i wprowadza asynchroniczny stos wywołań i mechanizm izolacji kontekstu wykonywania, tak aby osiągnąć jednoczesne wykonywanie "współbieżnych kontekstów EVM". Każdy kontrakt może wywoływać własną logikę w osobnym wątku, a wszystkie wątki będą jednolicie wykrywać i zbieżne stan za pośrednictwem równoległej warstwy zatwierdzania, gdy stan zostanie ostatecznie przesłany. Mechanizm ten jest bardzo podobny do wielowątkowego modelu JavaScript nowoczesnych przeglądarek (Web Workers + Shared Memory + Lock-Free Data), który zachowuje determinizm zachowania głównego wątku i wprowadza wysokowydajny mechanizm planowania, który jest asynchroniczny w tle. W praktyce projekt ten jest również niezwykle przyjazny dla budowniczych bloków i wyszukiwarek, a także może optymalizować sortowanie Mempool i ścieżki przechwytywania MEV zgodnie ze strategiami równoległymi, tworząc zamkniętą pętlę korzyści ekonomicznych w warstwie wykonawczej. Co ważniejsze, MegaETH decyduje się na głębokie powiązanie z ekosystemem Ethereum, a jego głównym miejscem lądowania w przyszłości będzie prawdopodobnie sieć EVM L2 Rollup, taka jak łańcuch Optimism, Base lub Arbitrum Orbit. Po przyjęciu na dużą skalę, może osiągnąć prawie 100-krotną poprawę wydajności w stosunku do istniejącego stosu technologicznego Ethereum bez zmiany semantyki kontraktów, modelu stanu, logiki gazu, metod wywoływania itp., co czyni go atrakcyjnym kierunkiem modernizacji technologii dla konserwatystów EVM. Paradygmat MegaETH jest następujący: tak długo, jak nadal robisz rzeczy na Ethereum, pozwolę, aby Twoja wydajność obliczeniowa gwałtownie wzrosła. Z punktu widzenia realizmu i inżynierii jest łatwiejszy do wdrożenia niż Monad i jest bardziej zgodny z iteracyjną ścieżką głównych projektów DeFi i NFT, co czyni go kandydatem do wsparcia ekologicznego w perspektywie krótkoterminowej. W pewnym sensie dwie trasy Monad i MegaETH to nie tylko dwie implementacje równoległych ścieżek technologicznych, ale także klasyczna konfrontacja między "refaktoryzacją" a "kompatybilnością" na ścieżce rozwoju blockchain: pierwsza z nich dąży do przełomu w paradygmacie i rekonstruuje całą logikę od maszyn wirtualnych po leżące u podstaw zarządzanie stanem, aby osiągnąć najwyższą wydajność i plastyczność architektoniczną; Ten ostatni dąży do stopniowej optymalizacji, popychając tradycyjne systemy do granic możliwości, jednocześnie respektując istniejące ograniczenia ekologiczne, minimalizując w ten sposób koszty migracji. Nie ma między nimi absolutnych zalet ani wad, ale służą one różnym grupom programistów i wizjom ekosystemu. Monad jest bardziej odpowiedni do budowania nowych systemów od podstaw, gier łańcuchowych, które dążą do ekstremalnej przepustowości, agentów AI i modułowych łańcuchów wykonawczych. Z drugiej strony MegaETH jest bardziej odpowiedni dla projektów L2, projektów DeFi i protokołów infrastrukturalnych, które chcą osiągnąć wzrost wydajności przy minimalnych zmianach w rozwoju. Są jak pociągi dużych prędkości na nowym torze, przedefiniowane z toru, sieci energetycznej na karoserię, tylko po to, aby osiągnąć niespotykaną prędkość i doświadczenie; Innym przykładem jest instalowanie turbin na istniejących autostradach, poprawa harmonogramu pasów ruchu i konstrukcji silnika, dzięki czemu pojazdy mogą jechać szybciej bez opuszczania znanej sieci drogowej. Oba mogą skończyć się w ten sam sposób: w następnej fazie modułowych architektur blockchain, Monad może stać się modułem "egzekucji jako usługi" dla Rollupów, a MegaETH może stać się wtyczką przyspieszającą wydajność dla głównych L2. Te dwa elementy mogą ostatecznie się zjednoczyć, tworząc dwa skrzydła wysokowydajnego silnika wykonawczego rozproszonego w przyszłym świecie Web3. 5. Przyszłe możliwości i wyzwania związane z obliczeniami równoległymi W miarę jak przetwarzanie równoległe przechodzi od projektowania opartego na dokumentach papierowych do wdrażania on-chain, potencjał, który odblokowuje, staje się coraz bardziej konkretny i mierzalny. Z jednej strony zaobserwowaliśmy, że nowe paradygmaty rozwoju i modele biznesowe zaczęły na nowo definiować "wydajność on-chain": bardziej złożona logika gier łańcuchowych, bardziej realistyczny cykl życia agenta AI, więcej protokołu wymiany danych w czasie rzeczywistym, bardziej wciągające interaktywne doświadczenie, a nawet system operacyjny Super App oparty na współpracy on-chain zmieniają się z "czy możemy to zrobić" na "jak dobrze możemy to zrobić". Z drugiej strony, tym, co naprawdę napędza przejście na przetwarzanie równoległe, jest nie tylko liniowa poprawa wydajności systemu, ale także strukturalna zmiana granic poznawczych programistów i kosztów migracji ekologicznej. Tak jak wprowadzenie przez Ethereum mechanizmu kontraktów Turing-complete dało początek wielowymiarowej eksplozji DeFi, NFT i DAO, tak "asynchroniczna rekonstrukcja między stanem a instrukcją" spowodowana przez obliczenia równoległe rodzi również nowy model świata on-chain, który jest nie tylko rewolucją w wydajności wykonania, ale także wylęgarnią innowacji w zakresie rozszczepienia w strukturze produktu. Przede wszystkim, z perspektywy możliwości, najbardziej bezpośrednią korzyścią jest "podniesienie pułapu aplikacji". Większość obecnych aplikacji DeFi, gier i aplikacji społecznościowych jest ograniczona przez wąskie gardła stanowe, koszty gazu i opóźnienia i nie może naprawdę przenosić interakcji o wysokiej częstotliwości w łańcuchu na dużą skalę. Biorąc za przykład gry łańcuchowe, GameFi z rzeczywistym sprzężeniem zwrotnym ruchu, synchronizacją zachowań o wysokiej częstotliwości i logiką walki w czasie rzeczywistym prawie nie istnieje, ponieważ liniowe wykonanie tradycyjnego EVM nie może obsługiwać transmisyjnego potwierdzania dziesiątek zmian stanu na sekundę. Dzięki wsparciu obliczeń równoległych, poprzez mechanizmy takie jak DAG transakcyjne i konteksty asynchroniczne na poziomie kontraktu, można konstruować łańcuchy o wysokiej współbieżności, a deterministyczne wyniki wykonywania można zagwarantować poprzez spójność migawek, aby osiągnąć strukturalny przełom w "silniku gier on-chain". Podobnie, wdrażanie i obsługa agentów AI również zostanie znacznie ulepszone dzięki przetwarzaniu równoległemu. W przeszłości mieliśmy tendencję do uruchamiania agentów AI poza łańcuchem i przesyłania wyników ich zachowań tylko do kontraktów on-chain, ale w przyszłości on-chain może obsługiwać asynchroniczną współpracę i udostępnianie stanów między wieloma podmiotami AI poprzez równoległe planowanie transakcji, aby naprawdę zrealizować autonomiczną logikę agenta w łańcuchu w czasie rzeczywistym. Obliczenia równoległe będą infrastrukturą dla tego "kontraktu opartego na zachowaniu", napędzając Web3 z "transakcji jako aktywa" do nowego świata "interakcji jako agenta". Po drugie, łańcuch narzędzi programistycznych i warstwa abstrakcji maszyn wirtualnych również zostały strukturalnie przekształcone ze względu na równoległość. Tradycyjny paradygmat rozwoju Solidity opiera się na modelu myślenia szeregowego, w którym programiści są przyzwyczajeni do projektowania logiki jako jednowątkowej zmiany stanu, ale w architekturach obliczeń równoległych programiści będą zmuszeni do myślenia o konfliktach zestawów odczytu/zapisu, zasadach izolacji stanu, nieotomności transakcji, a nawet wprowadzaniu wzorców architektonicznych opartych na kolejkach komunikatów lub potokach stanów. Ten skok w strukturze kognitywnej doprowadził również do szybkiego rozwoju nowej generacji łańcuchów narzędziowych. Na przykład równoległe ramy inteligentnych kontraktów, które obsługują deklaracje zależności transakcyjnych, kompilatory optymalizacyjne oparte na IR i współbieżne debuggery, które obsługują symulację migawek transakcji, staną się siedliskiem eksplozji infrastruktury w nowym cyklu. Jednocześnie ciągła ewolucja modułowych blockchainów przyniosła również doskonałą ścieżkę docelową dla obliczeń równoległych: Monad może zostać wstawiona do L2 Rollup jako moduł wykonawczy, MegaETH może być wdrożony jako zamiennik EVM dla głównych łańcuchów, Celestia zapewnia obsługę warstwy dostępności danych, a EigenLayer zapewnia zdecentralizowaną sieć walidatorów, tworząc w ten sposób wysokowydajną zintegrowaną architekturę od danych bazowych do logiki wykonania. Jednak postęp w dziedzinie obliczeń równoległych nie jest łatwą drogą, a wyzwania są jeszcze bardziej strukturalne i trudne do pokonania niż możliwości. Z jednej strony podstawowe trudności techniczne leżą w "gwarancji spójności współbieżności stanów" i "strategii radzenia sobie z konfliktami transakcji". W przeciwieństwie do baz danych poza łańcuchem, on-chain nie może tolerować arbitralnego stopnia wycofywania transakcji lub wycofywania stanu, a wszelkie konflikty wykonania muszą być modelowane z wyprzedzeniem lub precyzyjnie kontrolowane podczas zdarzenia. Oznacza to, że harmonogram równoległy musi mieć silne możliwości konstruowania wykresów zależności i przewidywania konfliktów, a jednocześnie zaprojektować wydajny mechanizm odporności na błędy wykonania optymistycznego, w przeciwnym razie system jest podatny na "burzę ponawiania prób jednoczesnych awarii" pod dużym obciążeniem, które nie tylko wzrasta, ale maleje, a nawet powoduje niestabilność łańcucha. Co więcej, obecny model bezpieczeństwa wielowątkowego środowiska wykonawczego nie został jeszcze w pełni ustalony, taki jak precyzja mechanizmu izolacji stanów między wątkami, nowe wykorzystanie ataków re-entrancy w kontekstach asynchronicznych oraz eksplozja gazu w krzyżowych wywołaniach kontraktów, z których wszystkie są nowymi problemami, które należy rozwiązać. Bardziej podstępne wyzwania wynikają z aspektów ekologicznych i psychologicznych. To, czy programiści są skłonni do migracji do nowego paradygmatu, czy są w stanie opanować metody projektowania modeli równoległych i czy są skłonni zrezygnować z części czytelności i audytowalności kontraktowej na rzecz korzyści w zakresie wydajności, jest kluczem do tego, czy obliczenia równoległe mogą tworzyć potencjalną energię ekologiczną. W ciągu ostatnich kilku lat widzieliśmy, jak wiele łańcuchów o doskonałej wydajności, ale pozbawionych wsparcia programistów, stopniowo milknie, takich jak NEAR, Avalanche, a nawet niektóre łańcuchy Cosmos SDK o znacznie lepszej wydajności niż EVM, a ich doświadczenie przypomina nam, że bez programistów nie ma ekosystemu; Bez ekologii, bez względu na to, jak dobre są osiągi, jest to po prostu zamek w powietrzu. W związku z tym projekty obliczeń równoległych powinny nie tylko tworzyć najsilniejszy silnik, ale także najłagodniejszą ścieżkę przejścia ekologicznego, tak aby "wydajność była gotowa do użycia", a nie "wydajność była progiem poznawczym". Ostatecznie przyszłość obliczeń równoległych jest zarówno triumfem inżynierii systemów, jak i testem dla ekoprojektowania. Zmusi nas to do ponownego zastanowienia się nad tym, "co jest istotą łańcucha": czy jest to zdecentralizowana maszyna rozliczeniowa, czy globalnie rozproszony koordynator stanu w czasie rzeczywistym? Jeśli tak jest w drugim przypadku, to możliwości przepustowości stanu, współbieżności transakcji i responsywności kontraktów, które wcześniej były uważane za "szczegóły techniczne łańcucha", ostatecznie staną się podstawowymi wskaźnikami definiującymi wartość łańcucha. Paradygmat obliczeń równoległych, który naprawdę zakończy tę transformację, stanie się również najbardziej podstawowym i najbardziej złożonym prymitywem infrastruktury w tym nowym cyklu, a jego wpływ będzie wykraczał daleko poza moduł techniczny i może stanowić punkt zwrotny w ogólnym paradygmacie obliczeniowym Web3. 6. Wniosek: Czy przetwarzanie równoległe jest najlepszą ścieżką do natywnej ekspansji Web3? Spośród wszystkich ścieżek, które badają granice wydajności Web3, przetwarzanie równoległe nie jest najłatwiejsze do wdrożenia, ale może być najbliższe istocie blockchaina. Nie migruje poza łańcuch, ani nie poświęca decentralizacji w zamian za przepustowość, ale stara się zrekonstruować sam model wykonawczy w atomowości i determinizmie łańcucha, od warstwy transakcji, warstwy kontraktów i warstwy maszyn wirtualnych do źródła wąskiego gardła wydajności. Ta "natywna dla łańcucha" metoda skalowania nie tylko zachowuje podstawowy model zaufania blockchaina, ale także rezerwuje zrównoważoną glebę wydajności dla bardziej złożonych aplikacji on-chain w przyszłości. Jego trudność tkwi w strukturze, a jego urok tkwi w strukturze. Jeśli refaktoryzacja modułowa jest "architekturą łańcucha", to refaktoryzacja obliczeń równoległych jest "duszą łańcucha". Być może nie jest to droga na skróty do odprawy celnej, ale prawdopodobnie będzie to jedyne trwałe pozytywne rozwiązanie w długoterminowej ewolucji Web3. Jesteśmy świadkami przejścia architektury od procesorów jednordzeniowych do wielordzeniowych/wielowątkowych systemów operacyjnych, a pojawienie się natywnych dla Web3 systemów operacyjnych może być ukryte w tych równoległych eksperymentach w łańcuchu.
Pokaż oryginał
122,19 tys.
1
Jasmine
Ponownie udostępniono Jasmine
Ourbit
Ourbit
Ourbit otworzył depozyty dla tych aktywów: $LENS [@getlensnow] $ROBOT [@RoboStack_io] $NEO [@Neo_Blockchain] Handel tymi notowaniami Spot jest dostępny tutaj:
Pokaż oryginał
21,66 tys.
94

Kalkulator NEO

USDUSD
NEONEO

Wydajność ceny NEO w USD

Obecna cena NEO wynosi $5,9050. W ciągu ostatnich 24 godzin NEO ma zmniejszony przez -0,46%. Obecnie ma podaż w obiegu 70 530 000 NEO i maksymalną podaż w wysokości 100 000 000 NEO, co daje jej w pełni rozwodnioną kapitalizację rynkową w wysokości $415,70M. Obecnie moneta NEO zajmuje 0 pozycję w rankingach kapitalizacji rynkowej. Cena NEO/USD jest aktualizowana w czasie rzeczywistym.
Dzisiaj
-$0,02700
-0,46%
7 dni
-$0,42000
-6,65%
30 dni
-$0,27700
-4,49%
3 miesiące
-$2,8200
-32,33%

Informacje NEO (NEO)

3.8/5
CyberScope
4.4
16.04.2025
TokenInsight
3.1
29.04.2023
Podana ocena jest zagregowaną oceną zebraną przez OKX z podanych źródeł i służy wyłącznie celom informacyjnym. OKX nie gwarantuje jakości ani dokładności ratingów. Nie ma on na celu zapewnienia (i) porady inwestycyjnej lub rekomendacji; (ii) oferty lub zachęty do kupna, sprzedaży lub posiadania aktywów cyfrowych; lub (iii) porady finansowej, księgowej, prawnej lub podatkowej. Aktywa cyfrowe, w tym stablecoiny i NFT, wiążą się z wysokim stopniem ryzyka, mogą podlegać znacznym wahaniom, a nawet stać się bezwartościowe. Cena i wydajność aktywów cyfrowych nie są gwarantowane i mogą ulec zmianie bez powiadomienia. Twoje aktywa cyfrowe nie są objęte ubezpieczeniem od potencjalnych strat. Historyczne zwroty nie wskazują na przyszłe zwroty. OKX nie gwarantuje żadnego zwrotu, spłaty kapitału ani odsetek. OKX nie udziela rekomendacji dotyczących inwestycji lub aktywów. Dokładnie rozważ, czy handel lub posiadanie aktywów cyfrowych jest dla Ciebie odpowiednie w świetle Twojej sytuacji finansowej. W przypadku pytań dotyczących konkretnej sytuacji należy skonsultować się ze specjalistą ds. prawnych/podatkowych/inwestycyjnych.
Pokaż więcej
  • Oficjalna strona internetowa
  • Github
  • Eksplorator bloków
  • Informacje o stronach internetowych stron trzecich
    Informacje o stronach internetowych stron trzecich
    Korzystając z witryny internetowej strony trzeciej („TPW”), użytkownik akceptuje fakt, że wszelkie korzystanie z TPW podlega warunkom TPW i jest regulowane przez te warunki. O ile nie zostało to wyraźnie określone na piśmie, OKX i jej podmioty stowarzyszone („OKX”) nie jest w żaden sposób powiązana z właścicielem lub operatorem TPW. Użytkownik zgadza się, że OKX nie ponosi odpowiedzialności za jakiekolwiek straty, szkody i inne konsekwencje wynikające z korzystania z TPW. Należy pamiętać, że korzystanie z TPW może spowodować utratę lub zmniejszenie aktywów.
Neo ma na celu wykorzystanie technologii blockchain i tożsamości cyfrowej do digitalizacji aktywów, a także wykorzystanie inteligentnych kontraktów do samodzielnego zarządzania zasobami cyfrowymi, aby osiągnąć „inteligentną ekonomię” z rozproszoną siecią.
Pokaż więcej
Pokaż mniej
Handluj popularnymi kryptowalutami i instrumentami pochodnymi z niskimi opłatami
Handluj popularnymi kryptowalutami i instrumentami pochodnymi z niskimi opłatami
Rozpocznij

Społeczności

Posty
Liczba postów wspominających o tokenie w ciągu ostatnich 24 godz. Może to pomóc ocenić poziom zainteresowania tym tokenem.
Współtwórcy
Liczba osób, które opublikowały posty na temat tokena w ciągu ostatnich 24 godz.. Większa liczba współpracowników może sugerować lepszą wydajność tokena.
Interakcje
Suma interakcji online o charakterze społecznościowym w ciągu ostatnich 24 godz., takich jak polubienia, komentarze i ponowne wpisy. Wysoki poziom zaangażowania może wskazywać na duże zainteresowanie tokenem.
Sentyment
Wynik procentowy odzwierciedlający nastroje po wpisie w ciągu ostatnich 24 godz. Wysoki wynik procentowy koreluje z pozytywnymi nastrojami i może wskazywać na poprawę wyników rynkowych.
Ranga wolumenu
Wolumen odnosi się do wolumena postów w ciągu ostatnich 24 godz. Wyższy wolumen w rankingu odzwierciedla uprzywilejowaną pozycję tokena w stosunku do innych tokenów.
W ciągu ostatnich 24 godzin pojawiły się nowe wpisy (16 tys.) na temat NEO, stworzonych przez 9,4 tys. użytkowników, a całkowite zaangażowanie online osiągnęło 46 mln interakcji społecznościowych. Wskaźnik sentymentu dla NEO wynosi obecnie 75%. W porównaniu ze wszystkimi kryptowalutami, wolumen wpisów dla NEO zajmuje obecnie 0 miejsce. Śledź zmiany wskaźników społecznościowych, ponieważ mogą być kluczowymi indykatorami wpływu i zasięgu NEO.
Powered by LunarCrush
Posty
15 667
Współtwórcy
9413
Interakcje
46 193 594
Sentyment
75%
Ranga wolumenu
#0

X

Posty
3279
Interakcje
20 101 073
Sentyment
79%

Najczęściej zadawane pytania NEO

Ile jest wart dzisiaj 1 NEO?
Obecnie jeden NEO jest wart $5,9050. Aby uzyskać odpowiedzi i wgląd w akcję cenową NEO, jesteś we właściwym miejscu. Przeglądaj najnowsze wykresy NEO i handluj odpowiedzialnie z OKX.
Co to jest kryptowaluta?
Kryptowaluty, takie jak NEO, to aktywa cyfrowe, które działają w publicznym rejestrze zwanym blockchainem. Dowiedz się więcej o monetach i tokenach oferowanych na OKX oraz ich różnych atrybutach, w tym o cenach na żywo i wykresach w czasie rzeczywistym.
Kiedy wynaleziono kryptowalutę?
Dzięki kryzysowi finansowemu z 2008 r. zainteresowanie zdecentralizowanymi finansami wzrosło. Bitcoin oferował nowatorskie rozwiązanie, zapewniając bezpieczne aktywa cyfrowe w zdecentralizowanej sieci. Od tego czasu powstało również wiele innych tokenów, takich jak NEO.
Czy cena NEO pójdzie dzisiaj w górę?
Sprawdź nasze Strona z prognozą cen NEO, aby prognozować przyszłe ceny i określić swoje cele cenowe.

Ujawnienie ESG

Przepisy ESG (środowiskowe, społeczne i ładu korporacyjnego) dla aktywów kryptowalutowych mają na celu uwzględnienie ich wpływu na środowisko (np. energochłonne kopanie), promowanie przejrzystości i zapewnienie etycznych praktyk zarządzania w celu dostosowania przemysłu kryptowalutowego do szerszego zrównoważonego rozwoju oraz celów społecznych. Przepisy te zachęcają do przestrzegania standardów, które ograniczają czynniki ryzyka i zwiększają zaufanie do aktywów cyfrowych.
Szczegóły aktywów
Nazwa
OKcoin Europe LTD
Identyfikator odpowiedniego podmiotu prawnego
54930069NLWEIGLHXU42
Nazwa aktywa krypto
NEO
Mechanizm konsensusu
NEO is present on the following networks: Ethereum, Neo. The crypto-asset's Proof-of-Stake (PoS) consensus mechanism, introduced with The Merge in 2022, replaces mining with validator staking. Validators must stake at least 32 ETH every block a validator is randomly chosen to propose the next block. Once proposed the other validators verify the blocks integrity. The network operates on a slot and epoch system, where a new block is proposed every 12 seconds, and finalization occurs after two epochs (~12.8 minutes) using Casper-FFG. The Beacon Chain coordinates validators, while the fork-choice rule (LMD-GHOST) ensures the chain follows the heaviest accumulated validator votes. Validators earn rewards for proposing and verifying blocks, but face slashing for malicious behavior or inactivity. PoS aims to improve energy efficiency, security, and scalability, with future upgrades like Proto-Danksharding enhancing transaction efficiency. The NEO blockchain uses a Delegated Byzantine Fault Tolerance (dBFT) consensus mechanism to validate transactions, relying on an elected committee and consensus nodes to maintain security and efficiency. Core Components of dBFT: 1. Candidates: a. Individuals or organizations can register as candidates for committee membership, a process that requires on-chain registration. b. NEO holders vote for candidates based on their NEO holdings, with votes calculated every 21 blocks. c. Elections are valid if more than 20% of all NEO tokens participate in voting. The candidates with the most votes are selected as committee members and consensus nodes. 2. Committee: a. The top 21 candidates with the most votes are elected as committee members. This committee is responsible for governing the network, including electing node roles like Oracle nodes, StateRoot consensus nodes, NeoFS Inner Ring nodes, and consensus nodes. b. The seven members with the highest votes also serve as consensus nodes, responsible for proposing and generating new blocks. Consensus nodes are rotated every 21 blocks to maintain security and decentralization. c. Committee proposals require more than 50% agreement for approval, allowing the committee to update blockchain parameters as needed.
Mechanizmy motywacyjne i obowiązujące opłaty
NEO is present on the following networks: Ethereum, Neo. The crypto-asset's PoS system secures transactions through validator incentives and economic penalties. Validators stake at least 32 ETH and earn rewards for proposing blocks, attesting to valid ones, and participating in sync committees. Rewards are paid in newly issued ETH and transaction fees. Under EIP-1559, transaction fees consist of a base fee, which is burned to reduce supply, and an optional priority fee (tip) paid to validators. Validators face slashing if they act maliciously and incur penalties for inactivity. This system aims to increase security by aligning incentives while making the crypto-asset's fee structure more predictable and deflationary during high network activity. The NEO network uses a dual-token model featuring NEO and GAS tokens. NEO serves governance and voting functions, while GAS is used for network operations. Incentive Mechanisms: - NEO Token: Supply and Governance: NEO has a maximum supply of 100 million tokens, is indivisible, and is used for governance activities, including electing consensus nodes and adjusting consensus parameters. Claiming GAS: NEO holders earn GAS based on their holdings, which allows them to participate in the ecosystem without directly purchasing GAS. - GAS Token: Utility and Fees: GAS is the network’s utility token, with a minimum unit of 0.00000001 (1 Datoshi). GAS is required for network fees, including transfers, asset registration, and smart contract execution. GAS transactions are precise, supporting high granularity for fees. Supply: Unlike NEO, GAS has no maximum supply, and transaction fees paid in GAS are burned, which contributes to supply control. - GAS Distribution: Block Rewards: Each block generates 5 GAS, distributed to NEO holders, voters, and the Neo Committee: NEO Holders receive 10%, distributed based on the holding period. Committee & Consensus Nodes receive 10%, with rewards recalculated every 21 blocks based on updated voting. Voters receive 80%, incentivizing voting participation. Rewards are calculated and distributed every epoch (21 blocks), with voters for consensus nodes receiving a higher reward ratio than those voting for non-consensus committee members.
Początek okresu, którego dotyczy ujawnienie
2024-05-31
Koniec okresu, którego dotyczy ujawnienie
2025-05-31
Raport o energii
Zużycie energii
65700.00000 (kWh/a)
Źródła zużycia energii i metodologie
The energy consumption of this asset is aggregated across multiple components: To determine the energy consumption of a token, the energy consumption of the network(s) ethereum, neo is calculated first. For the energy consumption of the token, a fraction of the energy consumption of the network is attributed to the token, which is determined based on the activity of the crypto-asset within the network. When calculating the energy consumption, the Functionally Fungible Group Digital Token Identifier (FFG DTI) is used - if available - to determine all implementations of the asset in scope. The mappings are updated regularly, based on data of the Digital Token Identifier Foundation.

Kalkulator NEO

USDUSD
NEONEO
Rozpocznij przygodę z kryptowalutami
Rozpocznij przygodę z kryptowalutami
Szybsza, lepsza, silniejsza niż przeciętna giełda kryptowalut.