BCH
BCH

Cena Bitcoin Cash

$405,30
-$12,0000
(-2,88%)
Zmiana ceny w ciągu ostatnich 24 godzin
USDUSD
Jak się dzisiaj czujesz w związku z BCH?
Podziel się swoimi odczuciami tutaj, dając kciuk w górę, jeśli czujesz wzrost w związku z monetą, lub kciuk w dół, jeśli czujesz spadek.
Głosuj, aby wyświetlić wyniki
Rozpocznij przygodę z kryptowalutami
Rozpocznij przygodę z kryptowalutami
Szybsza, lepsza, silniejsza niż przeciętna giełda kryptowalut.

Ryzyko emitenta BCH

Podejmij wszelkie środki ostrożności i poinformuj, że te aktywa kryptowalutowe jest klasyfikowana jako aktywa kryptowalutowe wysokiego ryzyka. Te aktywa kryptowalutowe nie ma wyraźnie identyfikowalnego emitenta lub/ani ustalonego zespołu projektowego, co zwiększa lub może zwiększyć jej podatność na znaczne ryzyko rynkowe, w tym, ale nie wyłącznie, ekstremalną zmienność, niską płynność lub/i potencjalne nadużycia rynkowe albo manipulacje cenowe. Nie ma absolutnej gwarancji wartości, stabilności lub możliwości sprzedaży tych aktywów kryptowalutowych po preferowanych lub pożądanych cenach.

Zastrzeżenie

Treści społecznościowe na tej stronie („Treści”), w tym między innymi tweety i statystyki dostarczane przez LunarCrush, pochodzą od stron trzecich i są dostarczane „tak jak są” wyłącznie w celach informacyjnych. OKX nie gwarantuje jakości ani dokładności Treści, a Treści nie reprezentują poglądów OKX. Nie mają one na celu (i) doradztwa inwestycyjnego lub rekomendacji; (ii) oferty lub zachęty do kupna, sprzedaży lub posiadania aktywów cyfrowych; lub (iii) doradztwa finansowego, księgowego, prawnego lub podatkowego. Aktywa cyfrowe, w tym stablecoiny i NFT, wiążą się z wysokim stopniem ryzyka i mogą podlegać znacznym wahaniom. Cena i wyniki aktywów cyfrowych nie są gwarantowane i mogą ulec zmianie bez powiadomienia.

OKX nie udziela rekomendacji dotyczących inwestycji ani aktywów. Musisz dokładnie rozważyć, czy handel lub posiadanie aktywów cyfrowych jest dla Ciebie odpowiednie w świetle Twojej sytuacji finansowej. W przypadku pytań dotyczących konkretnej sytuacji skonsultuj się ze swoim doradcą prawnym, podatkowym lub specjalistą ds. inwestycji. Aby uzyskać więcej informacji, zapoznaj się z warunkami użytkowania i ostrzeżeniem o ryzyku. Korzystając z witryny internetowej strony trzeciej („TWP”), akceptujesz, że wszelkie korzystanie z TPW będzie podlegać warunkom TPW i będzie regulowane przez te warunki. O ile nie zostało to wyraźnie określone na piśmie, OKX i jego podmioty stowarzyszone („OKX”) nie są w żaden sposób powiązane z właścicielem lub operatorem TPW. Zgadzasz się, że OKX nie ponosi odpowiedzialności za jakiekolwiek straty, szkody i inne konsekwencje wynikające z korzystania z TPW. Pamiętaj, że korzystanie z TPW może spowodować utratę lub zmniejszenie Twoich aktywów. Produkt może nie być dostępny we wszystkich jurysdykcjach.

Informacje o rynku Bitcoin Cash

Kapitalizacja rynkowa
Kapitalizacja rynkowa jest obliczana poprzez pomnożenie podaży w obiegu monety przez ostatnią cenę.
Kapitalizacja rynkowa = Podaż w obiegu × Ostatnia cena
Podaż w obiegu
Całkowita ilość monet publicznie dostępnych na rynku.
Ranking kapitalizacji rynkowej
Ranking monety pod względem wartości kapitalizacji rynkowej.
Najwyższa w historii
Najwyższa cena, jaką moneta osiągnęła w swojej historii transakcji.
Najniższa w historii
Najniższa cena, jaką moneta osiągnęła w swojej historii transakcji.
Kapitalizacja rynkowa
$8,06B
Podaż w obiegu
19 877 684 BCH
94,65% z
21 000 000 BCH
Ranking kapitalizacji rynkowej
16
Audyty
CertiK
Ostatni audyt: --
Najwyższa cena w ciągu 24 godz.
$418,00
Najniższa cena w ciągu 24 godz.
$397,20
Najwyższa w historii
$1640,17
-75,29% (-$1 234,87)
Ostatnia aktualizacja: 12 maj 2021, (UTC+8)
Najniższa w historii
$74,1000
+446,96% (+$331,20)
Ostatnia aktualizacja: 15 gru 2018, (UTC+8)

Bitcoin Cash Feed

Następująca zawartość pochodzi z .
PANews
PANews
1. Wprowadzenie: Ekspansja jest wieczną propozycją, a równoległość jest ostatecznym polem bitwy Od narodzin Bitcoina, system blockchain zawsze borykał się z nieuniknionym podstawowym problemem: skalowaniem. Bitcoin przetwarza mniej niż 10 transakcji na sekundę, a Ethereum ma trudności z przebiciem się przez wąskie gardło wydajności dziesiątek TPS (transakcji na sekundę), co jest szczególnie uciążliwe w tradycyjnym świecie Web2, który często wynosi dziesiątki tysięcy TPS. Co ważniejsze, nie jest to prosty problem, który można rozwiązać poprzez "dodawanie serwerów", ale ograniczenie systemowe głęboko osadzone w podstawowym konsensusie i projekcie strukturalnym blockchaina - czyli niemożliwym trójkącie łańcucha bloków, w którym nie można połączyć "decentralizacji, bezpieczeństwa i skalowalności". W ciągu ostatniej dekady byliśmy świadkami niezliczonych prób ekspansji, które wznosiły się i upadały. Od wojny o skalowanie Bitcoina po wizję shardingu Ethereum, od kanałów stanowych i plazmy po rollupy i modułowe blockchainy, od realizacji poza łańcuchem w warstwie 2 po strukturalną refaktoryzację dostępności danych, cała branża wkroczyła na ścieżkę skalowania pełną inżynieryjnej wyobraźni. Jako najszerzej akceptowany paradygmat skalowania, rollup osiągnął cel, jakim jest znaczne zwiększenie TPS przy jednoczesnym zmniejszeniu obciążenia wykonawczego głównego łańcucha i zachowaniu bezpieczeństwa Ethereum. Nie dotyka to jednak prawdziwych granic leżącej u podstaw blockchaina "wydajności pojedynczego łańcucha", zwłaszcza na poziomie wykonania, który jest przepustowością samego bloku – jest nadal ograniczony przez starożytny paradygmat przetwarzania obliczeń szeregowych w łańcuchu. Z tego powodu przetwarzanie równoległe w łańcuchu stopniowo wkroczyło w pole widzenia branży. W odróżnieniu od skalowania poza łańcuchem i dystrybucji międzyłańcuchowej, równoległość wewnątrz łańcucha próbuje całkowicie zrekonstruować silnik wykonawczy przy zachowaniu atomowości pojedynczego łańcucha i zintegrowanej struktury, a także aktualizuje blockchain z jednowątkowego trybu "szeregowego wykonywania jednej transakcji po jednej" do systemu obliczeniowego o wysokiej współbieżności "wielowątkowość + potok + planowanie zależności" pod kierunkiem nowoczesnego systemu operacyjnego i projektu procesora. Taka ścieżka może nie tylko osiągnąć stukrotny wzrost przepustowości, ale także może stać się kluczowym warunkiem wstępnym dla eksplozji aplikacji inteligentnych kontraktów. W rzeczywistości w paradygmacie obliczeń Web2 przetwarzanie jednowątkowe już dawno zostało wyeliminowane przez nowoczesne architektury sprzętowe i zastąpione przez niekończący się strumień modeli optymalizacji, takich jak programowanie równoległe, planowanie asynchroniczne, pule wątków i mikrousługi. Blockchain, jako bardziej prymitywny i konserwatywny system obliczeniowy o niezwykle wysokich wymaganiach dotyczących pewności i weryfikowalności, nigdy nie był w stanie w pełni wykorzystać tych pomysłów na obliczenia równoległe. Jest to zarówno ograniczenie, jak i szansa. Nowe łańcuchy, takie jak Solana, Sui i Aptos, są pierwszymi, które rozpoczynają tę eksplorację, wprowadzając równoległość na poziomie architektury. Pojawiające się projekty, takie jak Monad i MegaETH, jeszcze bardziej podniosły równoległość on-chain do przełomów w głębokich mechanizmach, takich jak wykonywanie potoków, optymistyczna współbieżność i asynchroniczne sterowanie komunikatami, wykazując cechy, które coraz bardziej zbliżają się do nowoczesnych systemów operacyjnych. Można powiedzieć, że obliczenia równoległe to nie tylko "metoda optymalizacji wydajności", ale także punkt zwrotny w paradygmacie modelu wykonawczego blockchain. Rzuca wyzwanie podstawowym wzorcom realizacji inteligentnych kontraktów i na nowo definiuje podstawową logikę pakowania transakcji, dostępu do stanu, relacji połączeń i układu pamięci masowej. Jeśli rollup polega na "przenoszeniu transakcji do wykonania poza łańcuchem", to równoległość on-chain to "budowanie rdzeni superkomputerowych w łańcuchu", a jego celem nie jest po prostu poprawa przepustowości, ale zapewnienie prawdziwie zrównoważonego wsparcia infrastrukturalnego dla przyszłych natywnych aplikacji Web3 (handel o wysokiej częstotliwości, silniki gier, wykonywanie modeli AI, społecznościowe on-chain itp.). Po tym, jak ścieżka rollupu stopniowo dąży do jednorodności, równoległość wewnątrz łańcucha po cichu staje się decydującą zmienną nowego cyklu konkurencji warstwy 1. Wydajność to już nie tylko "szybsza maszyna", ale możliwość obsługi całego heterogenicznego świata aplikacji. To nie tylko wyścig techniczny, ale także walka o paradygmat. Następna generacja suwerennych platform wykonawczych w świecie Web3 prawdopodobnie wyłoni się z tych równoległych zapasów wewnątrz łańcucha. 2. Paradygmat panoramy ekspansji: pięć rodzajów tras, z których każda ma swój własny nacisk Rozbudowa zdolności produkcyjnych, jako jeden z najważniejszych, trwałych i najtrudniejszych tematów w ewolucji technologii łańcucha publicznego, doprowadziła do powstania i ewolucji prawie wszystkich głównych ścieżek technologicznych w ciągu ostatniej dekady. Zaczynając od bitwy o rozmiar bloku Bitcoina, ten techniczny konkurs na temat "jak przyspieszyć działanie łańcucha" ostatecznie podzielił się na pięć podstawowych tras, z których każda wcina się w wąskie gardło pod innym kątem, z własną filozofią techniczną, trudnością lądowania, modelem ryzyka i możliwymi do zastosowania scenariuszami. Pierwsza droga to najprostsze skalowanie on-chain, co oznacza zwiększenie rozmiaru bloku, skrócenie czasu bloku lub poprawę mocy obliczeniowej poprzez optymalizację struktury danych i mechanizmu konsensusu. Podejście to było przedmiotem debaty na temat skalowania Bitcoina, dając początek forkom "big block", takim jak BCH i BSV, a także wpływając na pomysły projektowe wczesnych, wysokowydajnych łańcuchów publicznych, takich jak EOS i NEO. Zaletą tego rodzaju trasy jest to, że zachowuje prostotę spójności pojedynczego łańcucha, która jest łatwa do zrozumienia i wdrożenia, ale bardzo łatwo jest również dotknąć systemowej górnej granicy, takiej jak ryzyko centralizacji, rosnące koszty operacyjne węzłów i zwiększona trudność synchronizacji, więc nie jest to już główne rozwiązanie rdzeniowe w dzisiejszym projekcie, ale stało się bardziej pomocniczą kolokacją innych mechanizmów. Drugim typem trasy jest skalowanie poza łańcuchem, które jest reprezentowane przez kanały stanów i łańcuchy boczne. Podstawową ideą tego typu ścieżki jest przeniesienie większości aktywności transakcyjnej poza łańcuch i zapisanie tylko końcowego wyniku do głównego łańcucha, który działa jako końcowa warstwa rozliczeniowa. Pod względem filozofii technicznej jest to bliskie asynchronicznej architekturze Web2 - staraj się pozostawić ciężkie przetwarzanie transakcji na peryferiach, a główny łańcuch przeprowadza minimalną zaufaną weryfikację. Chociaż idea ta może być teoretycznie nieskończenie skalowalna, model zaufania, bezpieczeństwo funduszy i złożoność interakcji transakcji poza łańcuchem ograniczają jej zastosowanie. Na przykład, chociaż Lightning Network ma jasne pozycjonowanie scenariuszy finansowych, skala ekosystemu nigdy nie eksplodowała. Jednak wiele projektów opartych na sidechainach, takich jak Polygon POS, nie tylko ma wysoką przepustowość, ale także ujawnia wady trudnego dziedziczenia bezpieczeństwa głównego łańcucha. Trzeci typ trasy to najpopularniejsza i najczęściej wdrażana trasa zbiorcza warstwy 2. Ta metoda nie zmienia bezpośrednio samego głównego łańcucha, ale skaluje się poprzez mechanizm realizacji poza łańcuchem i weryfikacji on-chain. Optimistic Rollup i ZK Rollup mają swoje zalety: ten pierwszy jest szybki do wdrożenia i wysoce kompatybilny, ale ma problemy z opóźnieniem w okresie kwestionowania i mechanizmem odpornym na oszustwa; Ten ostatni ma silne zabezpieczenia i dobre możliwości kompresji danych, ale jest skomplikowany do opracowania i brakuje mu kompatybilności z EVM. Bez względu na to, jaki to jest rodzaj rollupu, jego istotą jest outsourcing mocy wykonawczej, przy jednoczesnym zachowaniu danych i weryfikacji w głównym łańcuchu, osiągając względną równowagę między decentralizacją a wysoką wydajnością. Szybki rozwój projektów takich jak Arbitrum, Optimism, zkSync i StarkNet dowodzi wykonalności tej ścieżki, ale ujawnia również średnioterminowe wąskie gardła, takie jak nadmierne poleganie na dostępności danych (DA), wysokie koszty i fragmentaryczne doświadczenie w programowaniu. Czwartym rodzajem trasy jest modułowa architektura blockchain, która pojawiła się w ostatnich latach, taka jak Celestia, Avail, EigenLayer itp. Paradygmat modułowy opowiada się za całkowitym oddzieleniem podstawowych funkcji blockchaina - wykonywania, konsensusu, dostępności danych i rozliczeń - przez wiele wyspecjalizowanych łańcuchów w celu wykonania różnych funkcji, a następnie połączenia ich w skalowalną sieć za pomocą protokołu cross-chain. Duży wpływ na ten kierunek ma modułowa architektura systemu operacyjnego oraz koncepcja komponowalności chmury obliczeniowej, która ma tę zaletę, że umożliwia elastyczną wymianę komponentów systemu i znacznie poprawia wydajność w określonych obszarach, takich jak DA. Jednak wyzwania są również bardzo oczywiste: koszt synchronizacji, weryfikacji i wzajemnego zaufania między systemami po oddzieleniu modułów jest niezwykle wysoki, ekosystem programistów jest niezwykle rozdrobniony, a wymagania dotyczące średnio- i długoterminowych standardów protokołów i bezpieczeństwa cross-chain są znacznie wyższe niż w przypadku tradycyjnego projektowania łańcuchów. W istocie, model ten nie buduje już "łańcucha", ale buduje "sieć łańcuchową", co stanowi bezprecedensowy próg dla ogólnego zrozumienia architektury, obsługi i utrzymania. Ostatnim typem trasy, na którym skupi się późniejsza analiza w tym artykule, jest wewnątrzłańcuchowa ścieżka optymalizacji obliczeń równoległych. W przeciwieństwie do pierwszych czterech typów "podziału poziomego", które przeprowadzają głównie "podział poziomy" z poziomu strukturalnego, obliczenia równoległe kładą nacisk na "ulepszenie pionowe", to znaczy jednoczesne przetwarzanie transakcji atomowych odbywa się poprzez zmianę architektury silnika wykonawczego w ramach jednego łańcucha. Wymaga to przepisania logiki planowania maszyn wirtualnych i wprowadzenia pełnego zestawu nowoczesnych mechanizmów planowania systemów komputerowych, takich jak analiza zależności transakcji, przewidywanie konfliktów stanów, kontrola równoległości i wywołania asynchroniczne. Solana jest pierwszym projektem, który implementuje koncepcję równoległej maszyny wirtualnej do systemu na poziomie łańcucha, który realizuje równoległe wykonywanie wielu rdzeni poprzez ocenę konfliktu transakcji w oparciu o model konta. Nowa generacja projektów, takich jak Monad, Sei, Fuel, MegaETH itp., próbuje dalej wprowadzać najnowocześniejsze pomysły, takie jak wykonywanie potoków, optymistyczna współbieżność, partycjonowanie pamięci masowej i równoległe rozprzęganie w celu zbudowania wysokowydajnych rdzeni wykonawczych podobnych do nowoczesnych procesorów. Główną zaletą tego kierunku jest to, że nie musi on polegać na architekturze wielołańcuchowej, aby osiągnąć przełom w limicie przepustowości, a jednocześnie zapewnia wystarczającą elastyczność obliczeniową do wykonywania złożonych inteligentnych kontraktów, co jest ważnym technicznym warunkiem wstępnym dla przyszłych scenariuszy zastosowań, takich jak AI Agent, gry łańcuchowe na dużą skalę i pochodne wysokiej częstotliwości. Patrząc na powyższe pięć typów ścieżek skalowania, podział, który za nimi stoi, to w rzeczywistości systematyczny kompromis między wydajnością, komponowalnością, bezpieczeństwem i złożonością rozwoju blockchaina. Rollup jest silny w outsourcingu konsensusu i bezpiecznym dziedziczeniu, modułowość podkreśla elastyczność strukturalną i ponowne wykorzystanie komponentów, skalowanie poza łańcuchem próbuje przebić się przez wąskie gardło głównego łańcucha, ale koszt zaufania jest wysoki, a równoległość wewnątrz łańcucha koncentruje się na fundamentalnym ulepszeniu warstwy wykonawczej, próbując zbliżyć się do granicy wydajności nowoczesnych systemów rozproszonych bez niszczenia spójności łańcucha. Niemożliwe jest, aby każda ze ścieżek rozwiązała wszystkie problemy, ale to właśnie te kierunki razem tworzą panoramę aktualizacji paradygmatu obliczeniowego Web3, a także zapewniają deweloperom, architektom i inwestorom niezwykle bogate opcje strategiczne. Tak jak system operacyjny przesunął się z jednordzeniowego na wielordzeniowy, a bazy danych ewoluowały od sekwencyjnych indeksów do jednoczesnych transakcji, ekspansja Web3 ostatecznie przesunie się w kierunku wysoce równoległej ery wykonawczej. W tej epoce wydajność nie jest już tylko wyścigiem prędkości łańcucha, ale kompleksowym ucieleśnieniem podstawowej filozofii projektowania, głębokiego zrozumienia architektury, współpracy oprogramowania i sprzętu oraz kontroli systemu. A równoległość wewnątrz łańcucha może być ostatecznym polem bitwy w tej długotrwałej wojnie. 3. Wykres klasyfikacji obliczeń równoległych: pięć ścieżek od konta do instrukcji W kontekście ciągłej ewolucji technologii skalowania blockchain, przetwarzanie równoległe stopniowo stało się główną ścieżką do przełomowych odkryć w zakresie wydajności. W odróżnieniu od poziomego rozprzęgania warstwy struktury, warstwy sieciowej lub warstwy dostępności danych, przetwarzanie równoległe to głębokie wydobycie w warstwie wykonawczej, które jest związane z najniższą logiką wydajności operacyjnej łańcucha bloków i określa szybkość odpowiedzi i zdolność przetwarzania systemu blockchain w obliczu wysokiej współbieżności i wielotypowych złożonych transakcji. Wychodząc od modelu wykonawczego i dokonując przeglądu rozwoju tej linii technologicznej, możemy uporządkować przejrzystą mapę klasyfikacyjną obliczeń równoległych, którą można z grubsza podzielić na pięć ścieżek technicznych: równoległość na poziomie konta, równoległość na poziomie obiektu, równoległość na poziomie transakcji, równoległość na poziomie maszyny wirtualnej i równoległość na poziomie instrukcji. Te pięć typów ścieżek, od gruboziarnistych do drobnoziarnistych, to nie tylko ciągły proces udoskonalania logiki równoległej, ale także ścieżka rosnącej złożoności systemu i trudności w planowaniu. Najwcześniejszym równoległym poziomem konta jest paradygmat reprezentowany przez Solana. Model ten opiera się na projekcie rozdzielenia konta i stanu i określa, czy istnieje relacja powodująca konflikt, poprzez statyczną analizę zestawu kont zaangażowanych w transakcję. Jeśli dwie transakcje uzyskują dostęp do zestawu kont, które nie nakładają się na siebie, mogą być wykonywane jednocześnie na wielu rdzeniach. Mechanizm ten jest idealny do radzenia sobie z dobrze ustrukturyzowanymi transakcjami z jasnymi danymi wejściowymi i wyjściowymi, szczególnie w przypadku programów o przewidywalnych ścieżkach, takich jak DeFi. Jednak jego naturalnym założeniem jest to, że dostęp do konta jest przewidywalny, a zależność od stanu można wywnioskować statycznie, co czyni go podatnym na konserwatywne wykonywanie i zmniejszoną równoległość w obliczu złożonych inteligentnych kontraktów (takich jak dynamiczne zachowania, takie jak gry łańcuchowe i agenci AI). Ponadto wzajemna zależność między rachunkami sprawia również, że równoległe zwroty są poważnie osłabione w niektórych scenariuszach handlu o wysokiej częstotliwości. Czas działania Solany jest wysoce zoptymalizowany pod tym względem, ale jego podstawowa strategia planowania jest nadal ograniczona przez stopień szczegółowości konta. Dalsze doprecyzowanie w oparciu o model konta, wchodzimy w techniczny poziom równoległości na poziomie obiektu. Równoległość na poziomie obiektu wprowadza semantyczną abstrakcję zasobów i modułów, z jednoczesnym planowaniem w bardziej szczegółowych jednostkach "obiektów stanu". Aptos i Sui są ważnymi badaczami w tym kierunku, zwłaszcza ten drugi, który definiuje własność i zmienność zasobów w czasie kompilacji za pomocą liniowego systemu typów języka Move, umożliwiając środowisku wykonawczemu precyzyjną kontrolę konfliktów dostępu do zasobów. W porównaniu z równoległością na poziomie konta ta metoda jest bardziej wszechstronna i skalowalna, może obejmować bardziej złożoną logikę odczytu i zapisu stanu oraz naturalnie obsługuje wysoce heterogeniczne scenariusze, takie jak gry, sieci społecznościowe i sztuczna inteligencja. Jednak równoległość na poziomie obiektu wprowadza również większe bariery językowe i złożoność programowania, a Move nie jest bezpośrednim zamiennikiem Solidity, a wysoki koszt ekologicznego przełączania ogranicza popularność jego równoległego paradygmatu. Dalszy równoległość na poziomie transakcji to kierunek, w którym podąża nowa generacja wysokowydajnych łańcuchów reprezentowanych przez Monad, Sei i Fuel. Zamiast traktować stany lub konta jako najmniejszą jednostkę równoległości, ścieżka jest budowana wokół wykresu zależności wokół całej transakcji. Traktuje transakcje jako niepodzielne jednostki operacji, tworzy wykresy transakcji (grupy DAG transakcji) za pomocą analizy statycznej lub dynamicznej i opiera się na harmonogramach do współbieżnego wykonywania przepływów. Taka konstrukcja pozwala systemowi zmaksymalizować równoległość wydobycia bez konieczności pełnego zrozumienia podstawowej struktury stanu. Monad jest szczególnie przyciągający wzrok, łącząc nowoczesne technologie silnika bazy danych, takie jak Optimistic Concurrency Control (OCC), równoległe planowanie potoków i wykonywanie poza kolejnością, zbliżając wykonywanie łańcucha do paradygmatu "harmonogramu GPU". W praktyce mechanizm ten wymaga niezwykle złożonych menedżerów zależności i detektorów konfliktów, a wąskim gardłem może stać się również sam scheduler, ale jego potencjalna przepustowość jest znacznie wyższa niż modelu konta czy obiektu, co czyni go najbardziej teoretyczną siłą w obecnej ścieżce obliczeń równoległych. Z drugiej strony równoległość na poziomie maszyny wirtualnej osadza możliwości współbieżnego wykonywania bezpośrednio w podstawowej logice planowania instrukcji maszyny wirtualnej, dążąc do całkowitego przełamania nieodłącznych ograniczeń wykonywania sekwencji EVM. Jako "eksperyment z super maszyną wirtualną" w ekosystemie Ethereum, MegaETH próbuje przeprojektować EVM, aby obsługiwał wielowątkowe jednoczesne wykonywanie kodu inteligentnych kontraktów. Warstwa podstawowa umożliwia każdemu kontraktowi niezależne uruchamianie w różnych kontekstach wykonywania za pomocą mechanizmów, takich jak wykonywanie segmentowane, segmentacja stanu i wywołanie asynchroniczne, a także zapewnia ostateczną spójność za pomocą warstwy synchronizacji równoległej. Najtrudniejszą częścią tego podejścia jest to, że musi ono być w pełni kompatybilne z istniejącą semantyką zachowań EVM, a jednocześnie przekształcać całe środowisko wykonawcze i mechanizm gazowy, aby płynnie migrować ekosystem Solidity do równoległego frameworka. Wyzwaniem jest nie tylko głębokość stosu technologicznego, ale także akceptacja znaczących zmian w strukturze politycznej L1 Ethereum. Ale jeśli się powiedzie, MegaETH zapowiada się na "rewolucję procesorów wielordzeniowych" w przestrzeni EVM. Ostatnim typem ścieżki jest równoległość na poziomie instrukcji, która jest najbardziej szczegółowa i ma najwyższy próg techniczny. Pomysł wywodzi się z potoków wykonywania i instrukcji po zakończeniu w nowoczesnej konstrukcji procesora. Paradygmat ten twierdzi, że ponieważ każdy inteligentny kontrakt jest ostatecznie kompilowany do instrukcji kodu bajtowego, całkowicie możliwe jest zaplanowanie i przeanalizowanie każdej operacji oraz równoległe przegrupowanie jej w taki sam sposób, w jaki procesor wykonuje zestaw instrukcji x86. Zespół Fuel początkowo wprowadził w swoim FuelVM model wykonywania na poziomie instrukcji, a w dłuższej perspektywie, gdy silnik wykonawczy blockchain zaimplementuje predykcyjne wykonywanie i dynamiczne przegrupowanie zależnych od instrukcji, jego równoległość osiągnie teoretyczny limit. Takie podejście może nawet przenieść wspólne projektowanie blockchain-hardware na zupełnie nowy poziom, czyniąc łańcuch prawdziwym "zdecentralizowanym komputerem", a nie tylko "rozproszoną księgą". Oczywiście ta ścieżka jest jeszcze w fazie teoretycznej i eksperymentalnej, a odpowiednie schedulery i mechanizmy weryfikacji bezpieczeństwa nie są jeszcze dojrzałe, ale wskazują na ostateczną granicę przyszłości obliczeń równoległych. Podsumowując, pięć ścieżek konta, obiektu, transakcji, maszyny wirtualnej i instrukcji stanowi spektrum rozwoju wewnątrzłańcuchowych obliczeń równoległych, od statycznej struktury danych po dynamiczny mechanizm planowania, od przewidywania dostępu do stanu po reorganizację na poziomie instrukcji, każdy krok technologii równoległej oznacza znaczny wzrost złożoności systemu i progu rozwoju. Ale jednocześnie oznaczają one również zmianę paradygmatu w modelu obliczeniowym blockchain, od tradycyjnego rejestru konsensusu pełnej sekwencji do wysokowydajnego, przewidywalnego i dyspozycyjnego rozproszonego środowiska wykonawczego. Jest to nie tylko nadrobienie zaległości w zakresie wydajności przetwarzania w chmurze Web2, ale także głęboka koncepcja ostatecznej formy "komputera blockchain". Wybór równoległych ścieżek dla różnych łańcuchów publicznych określi również limit nośny ich przyszłych ekosystemów aplikacji, a także ich podstawową konkurencyjność w scenariuszach takich jak AI Agent, gry łańcuchowe i handel on-chain o wysokiej częstotliwości. Po czwarte, wyjaśnione są dwie główne ścieżki: Monad vs MegaETH Spośród wielu ścieżek ewolucji obliczeń równoległych, dwie główne ścieżki techniczne o największym skupieniu, najwyższym głosie i najbardziej kompletnej narracji na obecnym rynku to bez wątpienia "budowanie równoległego łańcucha obliczeniowego od podstaw" reprezentowane przez Monad oraz "równoległa rewolucja w EVM" reprezentowana przez MegaETH. Te dwa są nie tylko najbardziej intensywnymi kierunkami badawczo-rozwojowymi dla obecnych prymitywnych inżynierów kryptograficznych, ale także najbardziej decydującymi symbolami biegunowymi w obecnym wyścigu wydajności komputerów Web3. Różnica między nimi polega nie tylko na punkcie wyjścia i stylu architektury technicznej, ale także na obiektach ekologicznych, którym służą, kosztach migracji, filozofii realizacji i przyszłej ścieżce strategicznej, która za nimi stoi. Reprezentują one równoległą konkurencję paradygmatu między "rekonstrukcjonizmem" a "kompatybilnizmem" i głęboko wpłynęły na wyobrażenia rynku o ostatecznej formie łańcuchów o wysokiej wydajności. Monad jest na wskroś "fundamentalistą obliczeniowym", a jego filozofia projektowania nie jest zaprojektowana tak, aby była kompatybilna z istniejącymi EVM, ale raczej aby na nowo zdefiniować sposób, w jaki silniki wykonawcze blockchain działają pod maską, czerpiąc inspirację z nowoczesnych baz danych i wysokowydajnych systemów wielordzeniowych. Jego podstawowy system technologiczny opiera się na dojrzałych mechanizmach w dziedzinie baz danych, takich jak optymistyczna kontrola współbieżności, planowanie transakcji DAG, wykonywanie poza kolejnością i wykonywanie potokowe, mające na celu zwiększenie wydajności przetwarzania transakcji w łańcuchu do rzędu milionów TPS. W architekturze Monad wykonywanie i porządkowanie transakcji jest całkowicie rozłączone, a system najpierw buduje wykres zależności transakcji, a następnie przekazuje go do harmonogramu w celu równoległego wykonania. Wszystkie transakcje są traktowane jako niepodzielne jednostki transakcji, z jawnymi zestawami odczytu i zapisu oraz migawkami stanu, a harmonogramy są wykonywane optymistycznie na podstawie wykresów zależności, wycofując się i ponownie wykonując, gdy wystąpią konflikty. Mechanizm ten jest niezwykle złożony pod względem implementacji technicznej, wymagający budowy stosu wykonawczego podobnego do tego, jaki posiada nowoczesny menedżer transakcji bazy danych, a także wprowadzenia mechanizmów takich jak buforowanie wielopoziomowe, pobieranie z wyprzedzeniem, walidacja równoległa itp., w celu kompresji opóźnienia zatwierdzenia stanu końcowego, ale teoretycznie może przesunąć granicę przepustowości do wysokości, których nie wyobraża sobie obecny łańcuch. Co ważniejsze, Monad nie zrezygnował z interoperacyjności z EVM. Wykorzystuje warstwę pośrednią podobną do "Solidity-Compatible Intermediate Language", aby wspierać programistów w pisaniu kontraktów w składni Solidity, a jednocześnie przeprowadzać optymalizację języka pośredniego i planowanie równoległości w silniku wykonawczym. Ta strategia projektowania polegająca na "kompatybilności powierzchniowej i refaktoryzacji dna" nie tylko zachowuje przyjazność ekologicznych deweloperów Ethereum, ale także w największym stopniu uwalnia podstawowy potencjał wykonawczy, co jest typową strategią techniczną polegającą na "połykaniu EVM, a następnie jego dekonstrukcji". Oznacza to również, że po uruchomieniu Monad stanie się nie tylko suwerennym łańcuchem o ekstremalnej wydajności, ale także idealną warstwą wykonawczą dla sieci rollupowych warstwy 2, a nawet "podłączanym rdzeniem o wysokiej wydajności" dla innych modułów wykonawczych łańcucha w dłuższej perspektywie. Z tego punktu widzenia Monad to nie tylko droga techniczna, ale także nowa logika projektowania suwerenności systemu, która opowiada się za "modularyzacją, wydajnością i możliwością ponownego wykorzystania" warstwy wykonawczej, aby stworzyć nowy standard dla międzyłańcuchowego przetwarzania zespołowego. W przeciwieństwie do stanowiska Monada w sprawie "nowego budowniczego świata", MegaETH jest zupełnie odwrotnym typem projektu, który decyduje się na start od istniejącego świata Ethereum i osiągnięcie znacznego wzrostu wydajności realizacji przy minimalnych kosztach zmian. MegaETH nie wywraca do góry nogami specyfikacji EVM, ale raczej stara się wbudować moc obliczeń równoległych w silnik wykonawczy istniejącego EVM, tworząc przyszłą wersję "wielordzeniowego EVM". Uzasadnieniem jest całkowita refaktoryzacja obecnego modelu wykonywania instrukcji EVM z takimi możliwościami, jak izolacja na poziomie wątku, asynchroniczne wykonywanie na poziomie kontraktu i wykrywanie konfliktów dostępu do stanu, co pozwala wielu inteligentnym kontraktom działać jednocześnie w tym samym bloku i ostatecznie scalać zmiany stanu. Model ten wymaga od programistów osiągnięcia znacznego wzrostu wydajności z tego samego kontraktu wdrożonego w łańcuchu MegaETH bez zmiany istniejących kontraktów Solidity, przy użyciu nowych języków lub łańcuchów narzędzi. Ta ścieżka "konserwatywnej rewolucji" jest niezwykle atrakcyjna, szczególnie dla ekosystemu Ethereum L2, ponieważ stanowi idealną ścieżkę do bezbolesnych ulepszeń wydajności bez konieczności migracji składni. Główny przełom w MegaETH polega na wielowątkowym mechanizmie planowania maszyn wirtualnych. Tradycyjne EVM wykorzystują stosowy, jednowątkowy model wykonywania, w którym każda instrukcja jest wykonywana liniowo, a aktualizacje stanu muszą odbywać się synchronicznie. MegaETH przełamuje ten wzorzec i wprowadza asynchroniczny stos wywołań i mechanizm izolacji kontekstu wykonywania, tak aby osiągnąć jednoczesne wykonywanie "współbieżnych kontekstów EVM". Każdy kontrakt może wywoływać własną logikę w osobnym wątku, a wszystkie wątki będą jednolicie wykrywać i zbieżne stan za pośrednictwem równoległej warstwy zatwierdzania, gdy stan zostanie ostatecznie przesłany. Mechanizm ten jest bardzo podobny do wielowątkowego modelu JavaScript nowoczesnych przeglądarek (Web Workers + Shared Memory + Lock-Free Data), który zachowuje determinizm zachowania głównego wątku i wprowadza wysokowydajny mechanizm planowania, który jest asynchroniczny w tle. W praktyce projekt ten jest również niezwykle przyjazny dla budowniczych bloków i wyszukiwarek, a także może optymalizować sortowanie Mempool i ścieżki przechwytywania MEV zgodnie ze strategiami równoległymi, tworząc zamkniętą pętlę korzyści ekonomicznych w warstwie wykonawczej. Co ważniejsze, MegaETH decyduje się na głębokie powiązanie z ekosystemem Ethereum, a jego głównym miejscem lądowania w przyszłości będzie prawdopodobnie sieć EVM L2 Rollup, taka jak łańcuch Optimism, Base lub Arbitrum Orbit. Po przyjęciu na dużą skalę, może osiągnąć prawie 100-krotną poprawę wydajności w stosunku do istniejącego stosu technologicznego Ethereum bez zmiany semantyki kontraktów, modelu stanu, logiki gazu, metod wywoływania itp., co czyni go atrakcyjnym kierunkiem modernizacji technologii dla konserwatystów EVM. Paradygmat MegaETH jest następujący: tak długo, jak nadal robisz rzeczy na Ethereum, pozwolę, aby Twoja wydajność obliczeniowa gwałtownie wzrosła. Z punktu widzenia realizmu i inżynierii jest łatwiejszy do wdrożenia niż Monad i jest bardziej zgodny z iteracyjną ścieżką głównych projektów DeFi i NFT, co czyni go kandydatem do wsparcia ekologicznego w perspektywie krótkoterminowej. W pewnym sensie dwie trasy Monad i MegaETH to nie tylko dwie implementacje równoległych ścieżek technologicznych, ale także klasyczna konfrontacja między "refaktoryzacją" a "kompatybilnością" na ścieżce rozwoju blockchain: pierwsza z nich dąży do przełomu w paradygmacie i rekonstruuje całą logikę od maszyn wirtualnych po leżące u podstaw zarządzanie stanem, aby osiągnąć najwyższą wydajność i plastyczność architektoniczną; Ten ostatni dąży do stopniowej optymalizacji, popychając tradycyjne systemy do granic możliwości, jednocześnie respektując istniejące ograniczenia ekologiczne, minimalizując w ten sposób koszty migracji. Nie ma między nimi absolutnych zalet ani wad, ale służą one różnym grupom programistów i wizjom ekosystemu. Monad jest bardziej odpowiedni do budowania nowych systemów od podstaw, gier łańcuchowych, które dążą do ekstremalnej przepustowości, agentów AI i modułowych łańcuchów wykonawczych. Z drugiej strony MegaETH jest bardziej odpowiedni dla projektów L2, projektów DeFi i protokołów infrastrukturalnych, które chcą osiągnąć wzrost wydajności przy minimalnych zmianach w rozwoju. Są jak pociągi dużych prędkości na nowym torze, przedefiniowane z toru, sieci energetycznej na karoserię, tylko po to, aby osiągnąć niespotykaną prędkość i doświadczenie; Innym przykładem jest instalowanie turbin na istniejących autostradach, poprawa harmonogramu pasów ruchu i konstrukcji silnika, dzięki czemu pojazdy mogą jechać szybciej bez opuszczania znanej sieci drogowej. Oba mogą skończyć się w ten sam sposób: w następnej fazie modułowych architektur blockchain, Monad może stać się modułem "egzekucji jako usługi" dla Rollupów, a MegaETH może stać się wtyczką przyspieszającą wydajność dla głównych L2. Te dwa elementy mogą ostatecznie się zjednoczyć, tworząc dwa skrzydła wysokowydajnego silnika wykonawczego rozproszonego w przyszłym świecie Web3. 5. Przyszłe możliwości i wyzwania związane z obliczeniami równoległymi W miarę jak przetwarzanie równoległe przechodzi od projektowania opartego na dokumentach papierowych do wdrażania on-chain, potencjał, który odblokowuje, staje się coraz bardziej konkretny i mierzalny. Z jednej strony zaobserwowaliśmy, że nowe paradygmaty rozwoju i modele biznesowe zaczęły na nowo definiować "wydajność on-chain": bardziej złożona logika gier łańcuchowych, bardziej realistyczny cykl życia agenta AI, więcej protokołu wymiany danych w czasie rzeczywistym, bardziej wciągające interaktywne doświadczenie, a nawet system operacyjny Super App oparty na współpracy on-chain zmieniają się z "czy możemy to zrobić" na "jak dobrze możemy to zrobić". Z drugiej strony, tym, co naprawdę napędza przejście na przetwarzanie równoległe, jest nie tylko liniowa poprawa wydajności systemu, ale także strukturalna zmiana granic poznawczych programistów i kosztów migracji ekologicznej. Tak jak wprowadzenie przez Ethereum mechanizmu kontraktów Turing-complete dało początek wielowymiarowej eksplozji DeFi, NFT i DAO, tak "asynchroniczna rekonstrukcja między stanem a instrukcją" spowodowana przez obliczenia równoległe rodzi również nowy model świata on-chain, który jest nie tylko rewolucją w wydajności wykonania, ale także wylęgarnią innowacji w zakresie rozszczepienia w strukturze produktu. Przede wszystkim, z perspektywy możliwości, najbardziej bezpośrednią korzyścią jest "podniesienie pułapu aplikacji". Większość obecnych aplikacji DeFi, gier i aplikacji społecznościowych jest ograniczona przez wąskie gardła stanowe, koszty gazu i opóźnienia i nie może naprawdę przenosić interakcji o wysokiej częstotliwości w łańcuchu na dużą skalę. Biorąc za przykład gry łańcuchowe, GameFi z rzeczywistym sprzężeniem zwrotnym ruchu, synchronizacją zachowań o wysokiej częstotliwości i logiką walki w czasie rzeczywistym prawie nie istnieje, ponieważ liniowe wykonanie tradycyjnego EVM nie może obsługiwać transmisyjnego potwierdzania dziesiątek zmian stanu na sekundę. Dzięki wsparciu obliczeń równoległych, poprzez mechanizmy takie jak DAG transakcyjne i konteksty asynchroniczne na poziomie kontraktu, można konstruować łańcuchy o wysokiej współbieżności, a deterministyczne wyniki wykonywania można zagwarantować poprzez spójność migawek, aby osiągnąć strukturalny przełom w "silniku gier on-chain". Podobnie, wdrażanie i obsługa agentów AI również zostanie znacznie ulepszone dzięki przetwarzaniu równoległemu. W przeszłości mieliśmy tendencję do uruchamiania agentów AI poza łańcuchem i przesyłania wyników ich zachowań tylko do kontraktów on-chain, ale w przyszłości on-chain może obsługiwać asynchroniczną współpracę i udostępnianie stanów między wieloma podmiotami AI poprzez równoległe planowanie transakcji, aby naprawdę zrealizować autonomiczną logikę agenta w łańcuchu w czasie rzeczywistym. Obliczenia równoległe będą infrastrukturą dla tego "kontraktu opartego na zachowaniu", napędzając Web3 z "transakcji jako aktywa" do nowego świata "interakcji jako agenta". Po drugie, łańcuch narzędzi programistycznych i warstwa abstrakcji maszyn wirtualnych również zostały strukturalnie przekształcone ze względu na równoległość. Tradycyjny paradygmat rozwoju Solidity opiera się na modelu myślenia szeregowego, w którym programiści są przyzwyczajeni do projektowania logiki jako jednowątkowej zmiany stanu, ale w architekturach obliczeń równoległych programiści będą zmuszeni do myślenia o konfliktach zestawów odczytu/zapisu, zasadach izolacji stanu, nieotomności transakcji, a nawet wprowadzaniu wzorców architektonicznych opartych na kolejkach komunikatów lub potokach stanów. Ten skok w strukturze kognitywnej doprowadził również do szybkiego rozwoju nowej generacji łańcuchów narzędziowych. Na przykład równoległe ramy inteligentnych kontraktów, które obsługują deklaracje zależności transakcyjnych, kompilatory optymalizacyjne oparte na IR i współbieżne debuggery, które obsługują symulację migawek transakcji, staną się siedliskiem eksplozji infrastruktury w nowym cyklu. Jednocześnie ciągła ewolucja modułowych blockchainów przyniosła również doskonałą ścieżkę docelową dla obliczeń równoległych: Monad może zostać wstawiona do L2 Rollup jako moduł wykonawczy, MegaETH może być wdrożony jako zamiennik EVM dla głównych łańcuchów, Celestia zapewnia obsługę warstwy dostępności danych, a EigenLayer zapewnia zdecentralizowaną sieć walidatorów, tworząc w ten sposób wysokowydajną zintegrowaną architekturę od danych bazowych do logiki wykonania. Jednak postęp w dziedzinie obliczeń równoległych nie jest łatwą drogą, a wyzwania są jeszcze bardziej strukturalne i trudne do pokonania niż możliwości. Z jednej strony podstawowe trudności techniczne leżą w "gwarancji spójności współbieżności stanów" i "strategii radzenia sobie z konfliktami transakcji". W przeciwieństwie do baz danych poza łańcuchem, on-chain nie może tolerować arbitralnego stopnia wycofywania transakcji lub wycofywania stanu, a wszelkie konflikty wykonania muszą być modelowane z wyprzedzeniem lub precyzyjnie kontrolowane podczas zdarzenia. Oznacza to, że harmonogram równoległy musi mieć silne możliwości konstruowania wykresów zależności i przewidywania konfliktów, a jednocześnie zaprojektować wydajny mechanizm odporności na błędy wykonania optymistycznego, w przeciwnym razie system jest podatny na "burzę ponawiania prób jednoczesnych awarii" pod dużym obciążeniem, które nie tylko wzrasta, ale maleje, a nawet powoduje niestabilność łańcucha. Co więcej, obecny model bezpieczeństwa wielowątkowego środowiska wykonawczego nie został jeszcze w pełni ustalony, taki jak precyzja mechanizmu izolacji stanów między wątkami, nowe wykorzystanie ataków re-entrancy w kontekstach asynchronicznych oraz eksplozja gazu w krzyżowych wywołaniach kontraktów, z których wszystkie są nowymi problemami, które należy rozwiązać. Bardziej podstępne wyzwania wynikają z aspektów ekologicznych i psychologicznych. To, czy programiści są skłonni do migracji do nowego paradygmatu, czy są w stanie opanować metody projektowania modeli równoległych i czy są skłonni zrezygnować z części czytelności i audytowalności kontraktowej na rzecz korzyści w zakresie wydajności, jest kluczem do tego, czy obliczenia równoległe mogą tworzyć potencjalną energię ekologiczną. W ciągu ostatnich kilku lat widzieliśmy, jak wiele łańcuchów o doskonałej wydajności, ale pozbawionych wsparcia programistów, stopniowo milknie, takich jak NEAR, Avalanche, a nawet niektóre łańcuchy Cosmos SDK o znacznie lepszej wydajności niż EVM, a ich doświadczenie przypomina nam, że bez programistów nie ma ekosystemu; Bez ekologii, bez względu na to, jak dobre są osiągi, jest to po prostu zamek w powietrzu. W związku z tym projekty obliczeń równoległych powinny nie tylko tworzyć najsilniejszy silnik, ale także najłagodniejszą ścieżkę przejścia ekologicznego, tak aby "wydajność była gotowa do użycia", a nie "wydajność była progiem poznawczym". Ostatecznie przyszłość obliczeń równoległych jest zarówno triumfem inżynierii systemów, jak i testem dla ekoprojektowania. Zmusi nas to do ponownego zastanowienia się nad tym, "co jest istotą łańcucha": czy jest to zdecentralizowana maszyna rozliczeniowa, czy globalnie rozproszony koordynator stanu w czasie rzeczywistym? Jeśli tak jest w drugim przypadku, to możliwości przepustowości stanu, współbieżności transakcji i responsywności kontraktów, które wcześniej były uważane za "szczegóły techniczne łańcucha", ostatecznie staną się podstawowymi wskaźnikami definiującymi wartość łańcucha. Paradygmat obliczeń równoległych, który naprawdę zakończy tę transformację, stanie się również najbardziej podstawowym i najbardziej złożonym prymitywem infrastruktury w tym nowym cyklu, a jego wpływ będzie wykraczał daleko poza moduł techniczny i może stanowić punkt zwrotny w ogólnym paradygmacie obliczeniowym Web3. 6. Wniosek: Czy przetwarzanie równoległe jest najlepszą ścieżką do natywnego skalowania Web3? Spośród wszystkich ścieżek, które badają granice wydajności Web3, przetwarzanie równoległe nie jest najłatwiejsze do wdrożenia, ale może być najbliższe istocie blockchaina. Nie migruje poza łańcuch, ani nie poświęca decentralizacji w zamian za przepustowość, ale stara się zrekonstruować sam model wykonawczy w atomowości i determinizmie łańcucha, od warstwy transakcji, warstwy kontraktów i warstwy maszyn wirtualnych do źródła wąskiego gardła wydajności. Ta "natywna dla łańcucha" metoda skalowania nie tylko zachowuje podstawowy model zaufania blockchaina, ale także rezerwuje zrównoważoną glebę wydajności dla bardziej złożonych aplikacji on-chain w przyszłości. Jego trudność tkwi w strukturze, a jego urok tkwi w strukturze. Jeśli refaktoryzacja modułowa jest "architekturą łańcucha", to refaktoryzacja obliczeń równoległych jest "duszą łańcucha". Być może nie jest to droga na skróty do odprawy celnej, ale prawdopodobnie będzie to jedyne trwałe pozytywne rozwiązanie w długoterminowej ewolucji Web3. Jesteśmy świadkami przejścia architektury od procesorów jednordzeniowych do wielordzeniowych/wielowątkowych systemów operacyjnych, a pojawienie się natywnych dla Web3 systemów operacyjnych może być ukryte w tych równoległych eksperymentach w łańcuchu.
Pokaż oryginał
121,09 tys.
1
Odaily
Odaily
1. Wprowadzenie: Ekspansja jest wieczną propozycją, a równoległość jest ostatecznym polem bitwy Od narodzin Bitcoina, system blockchain zawsze borykał się z nieuniknionym podstawowym problemem: skalowaniem. Bitcoin przetwarza mniej niż 10 transakcji na sekundę, a Ethereum ma trudności z przebiciem się przez wąskie gardło wydajności dziesiątek TPS (transakcji na sekundę), co jest szczególnie uciążliwe w tradycyjnym świecie Web2, gdzie często używane są dziesiątki tysięcy TPS. Co ważniejsze, nie jest to prosty problem, który można rozwiązać poprzez "dodawanie serwerów", ale ograniczenie systemowe głęboko osadzone w podstawowym konsensusie i projekcie strukturalnym blockchaina - czyli niemożliwym trójkącie łańcucha bloków, w którym nie można połączyć "decentralizacji, bezpieczeństwa i skalowalności". W ciągu ostatniej dekady byliśmy świadkami niezliczonych prób ekspansji, które wznosiły się i upadały. Od wojny o skalowanie Bitcoina po wizję shardingu Ethereum, od kanałów stanowych i plazmy po rollupy i modułowe blockchainy, od realizacji poza łańcuchem w warstwie 2 po strukturalną refaktoryzację dostępności danych, cała branża wkroczyła na ścieżkę skalowania pełną inżynieryjnej wyobraźni. Jako najszerzej akceptowany paradygmat skalowania, rollup osiągnął cel, jakim jest znaczne zwiększenie TPS przy jednoczesnym zmniejszeniu obciążenia wykonawczego głównego łańcucha i zachowaniu bezpieczeństwa Ethereum. Nie dotyka to jednak prawdziwych granic leżącej u podstaw blockchaina "wydajności pojedynczego łańcucha", zwłaszcza na poziomie wykonania, który jest przepustowością samego bloku – jest nadal ograniczony przez starożytny paradygmat przetwarzania obliczeń szeregowych w łańcuchu. Z tego powodu przetwarzanie równoległe w łańcuchu stopniowo wkroczyło w pole widzenia branży. W odróżnieniu od skalowania poza łańcuchem i dystrybucji międzyłańcuchowej, równoległość wewnątrz łańcucha próbuje całkowicie zrekonstruować silnik wykonawczy przy zachowaniu atomowości pojedynczego łańcucha i zintegrowanej struktury, a także aktualizuje blockchain z jednowątkowego trybu "szeregowego wykonywania jednej transakcji po jednej" do systemu obliczeniowego o wysokiej współbieżności "wielowątkowość + potok + planowanie zależności" pod kierunkiem nowoczesnego systemu operacyjnego i projektu procesora. Taka ścieżka może nie tylko osiągnąć stukrotny wzrost przepustowości, ale także może stać się kluczowym warunkiem wstępnym dla eksplozji aplikacji inteligentnych kontraktów. W rzeczywistości w paradygmacie obliczeń Web2 przetwarzanie jednowątkowe już dawno zostało wyeliminowane przez nowoczesne architektury sprzętowe i zastąpione przez niekończący się strumień modeli optymalizacji, takich jak programowanie równoległe, planowanie asynchroniczne, pule wątków i mikrousługi. Blockchain, jako bardziej prymitywny i konserwatywny system obliczeniowy o niezwykle wysokich wymaganiach dotyczących pewności i weryfikowalności, nigdy nie był w stanie w pełni wykorzystać tych pomysłów na obliczenia równoległe. Jest to zarówno ograniczenie, jak i szansa. Nowe łańcuchy, takie jak Solana, Sui i Aptos, są pierwszymi, które rozpoczynają tę eksplorację, wprowadzając równoległość na poziomie architektury. Pojawiające się projekty, takie jak Monad i MegaETH, jeszcze bardziej podniosły równoległość on-chain do przełomów w głębokich mechanizmach, takich jak wykonywanie potoków, optymistyczna współbieżność i asynchroniczne sterowanie komunikatami, wykazując cechy, które coraz bardziej zbliżają się do nowoczesnych systemów operacyjnych. Można powiedzieć, że obliczenia równoległe to nie tylko "metoda optymalizacji wydajności", ale także punkt zwrotny w paradygmacie modelu wykonawczego blockchain. Rzuca wyzwanie podstawowym wzorcom realizacji inteligentnych kontraktów i na nowo definiuje podstawową logikę pakowania transakcji, dostępu do stanu, relacji połączeń i układu pamięci masowej. Jeśli rollup polega na "przenoszeniu transakcji do wykonania poza łańcuchem", to równoległość on-chain to "budowanie rdzeni superkomputerowych w łańcuchu", a jego celem nie jest po prostu poprawa przepustowości, ale zapewnienie prawdziwie zrównoważonego wsparcia infrastrukturalnego dla przyszłych natywnych aplikacji Web3 (handel o wysokiej częstotliwości, silniki gier, wykonywanie modeli AI, społecznościowe on-chain itp.). Po tym, jak ścieżka rollupu stopniowo dąży do jednorodności, równoległość wewnątrz łańcucha po cichu staje się decydującą zmienną nowego cyklu konkurencji warstwy 1. Wydajność to już nie tylko "szybsza maszyna", ale możliwość obsługi całego heterogenicznego świata aplikacji. To nie tylko wyścig techniczny, ale także walka o paradygmat. Następna generacja suwerennych platform wykonawczych w świecie Web3 prawdopodobnie wyłoni się z tych równoległych zapasów wewnątrz łańcucha. 2. Paradygmat panoramy ekspansji: pięć rodzajów tras, z których każda ma swój własny nacisk Rozbudowa zdolności produkcyjnych, jako jeden z najważniejszych, trwałych i najtrudniejszych tematów w ewolucji technologii łańcucha publicznego, doprowadziła do powstania i ewolucji prawie wszystkich głównych ścieżek technologicznych w ciągu ostatniej dekady. Zaczynając od bitwy o rozmiar bloku Bitcoina, ten techniczny konkurs na temat "jak przyspieszyć działanie łańcucha" ostatecznie podzielił się na pięć podstawowych tras, z których każda wcina się w wąskie gardło pod innym kątem, z własną filozofią techniczną, trudnością lądowania, modelem ryzyka i możliwymi do zastosowania scenariuszami. Pierwsza droga to najprostsze skalowanie on-chain, co oznacza zwiększenie rozmiaru bloku, skrócenie czasu bloku lub poprawę mocy obliczeniowej poprzez optymalizację struktury danych i mechanizmu konsensusu. Podejście to było przedmiotem debaty na temat skalowania Bitcoina, dając początek forkom frakcji "big block", takim jak BCH i BSV, a także wpływając na pomysły projektowe wczesnych, wysokowydajnych łańcuchów publicznych, takich jak EOS i NEO. Zaletą tego rodzaju trasy jest to, że zachowuje prostotę spójności pojedynczego łańcucha, która jest łatwa do zrozumienia i wdrożenia, ale bardzo łatwo jest również dotknąć systemowej górnej granicy, takiej jak ryzyko centralizacji, rosnące koszty operacyjne węzłów i zwiększona trudność synchronizacji, więc nie jest to już główne rozwiązanie rdzeniowe w dzisiejszym projekcie, ale stało się bardziej pomocniczą kolokacją innych mechanizmów. Drugim typem trasy jest skalowanie poza łańcuchem, które jest reprezentowane przez kanały stanów i łańcuchy boczne. Podstawową ideą tego typu ścieżki jest przeniesienie większości aktywności transakcyjnej poza łańcuch i zapisanie tylko końcowego wyniku do głównego łańcucha, który działa jako końcowa warstwa rozliczeniowa. Pod względem filozofii technicznej jest to bliskie asynchronicznej architekturze Web2 - staraj się pozostawić ciężkie przetwarzanie transakcji na peryferiach, a główny łańcuch przeprowadza minimalną zaufaną weryfikację. Chociaż idea ta może być teoretycznie nieskończenie skalowalna, model zaufania, bezpieczeństwo funduszy i złożoność interakcji transakcji poza łańcuchem ograniczają jej zastosowanie. Na przykład, chociaż Lightning Network ma jasne pozycjonowanie scenariuszy finansowych, skala ekosystemu nigdy nie eksplodowała. Jednak wiele projektów opartych na sidechainach, takich jak Polygon POS, nie tylko ma wysoką przepustowość, ale także ujawnia wady trudnego dziedziczenia bezpieczeństwa głównego łańcucha. Trzeci typ trasy to najpopularniejsza i najczęściej wdrażana trasa zbiorcza warstwy 2. Ta metoda nie zmienia bezpośrednio samego głównego łańcucha, ale skaluje się poprzez mechanizm realizacji poza łańcuchem i weryfikacji on-chain. Optimistic Rollup i ZK Rollup mają swoje zalety: ten pierwszy jest szybki do wdrożenia i wysoce kompatybilny, ale ma problemy z opóźnieniem w okresie kwestionowania i mechanizmem odpornym na oszustwa; Ten ostatni ma silne zabezpieczenia i dobre możliwości kompresji danych, ale jest skomplikowany do opracowania i brakuje mu kompatybilności z EVM. Bez względu na to, jaki to jest rodzaj rollupu, jego istotą jest outsourcing mocy wykonawczej, przy jednoczesnym zachowaniu danych i weryfikacji w głównym łańcuchu, osiągając względną równowagę między decentralizacją a wysoką wydajnością. Szybki rozwój projektów takich jak Arbitrum, Optimism, zkSync i StarkNet dowodzi wykonalności tej ścieżki, ale ujawnia również średnioterminowe wąskie gardła, takie jak nadmierne poleganie na dostępności danych (DA), wysokie koszty i fragmentaryczne doświadczenie w programowaniu. Czwartym rodzajem trasy jest modułowa architektura blockchain, która pojawiła się w ostatnich latach, taka jak Celestia, Avail, EigenLayer itp. Paradygmat modułowy opowiada się za całkowitym oddzieleniem podstawowych funkcji blockchaina - wykonywania, konsensusu, dostępności danych i rozliczeń - przez wiele wyspecjalizowanych łańcuchów w celu wykonania różnych funkcji, a następnie połączenia ich w skalowalną sieć za pomocą protokołu cross-chain. Duży wpływ na ten kierunek ma modułowa architektura systemu operacyjnego oraz komponowalność chmury obliczeniowej, która ma tę zaletę, że umożliwia elastyczną wymianę komponentów systemu i znacznie poprawia wydajność w określonych obszarach, takich jak DA. Jednak wyzwania są również bardzo oczywiste: koszt synchronizacji, weryfikacji i wzajemnego zaufania między systemami po oddzieleniu modułów jest niezwykle wysoki, ekosystem programistów jest niezwykle rozdrobniony, a wymagania dotyczące średnio- i długoterminowych standardów protokołów i bezpieczeństwa cross-chain są znacznie wyższe niż w przypadku tradycyjnego projektowania łańcuchów. W istocie, model ten nie buduje już "łańcucha", ale buduje "sieć łańcuchową", co stanowi bezprecedensowy próg dla ogólnego zrozumienia architektury, obsługi i utrzymania. Ostatnim typem trasy, na którym skupi się późniejsza analiza w tym artykule, jest wewnątrzłańcuchowa ścieżka optymalizacji obliczeń równoległych. W przeciwieństwie do pierwszych czterech typów "podziału poziomego", które przeprowadzają głównie "podział poziomy" z poziomu strukturalnego, obliczenia równoległe kładą nacisk na "ulepszenie pionowe", to znaczy jednoczesne przetwarzanie transakcji atomowych odbywa się poprzez zmianę architektury silnika wykonawczego w ramach jednego łańcucha. Wymaga to przepisania logiki planowania maszyn wirtualnych i wprowadzenia pełnego zestawu nowoczesnych mechanizmów planowania systemów komputerowych, takich jak analiza zależności transakcji, przewidywanie konfliktów stanów, kontrola równoległości i wywołania asynchroniczne. Solana jest pierwszym projektem, który implementuje koncepcję równoległej maszyny wirtualnej do systemu na poziomie łańcucha, który realizuje równoległe wykonywanie wielu rdzeni poprzez ocenę konfliktu transakcji w oparciu o model konta. Nowa generacja projektów, takich jak Monad, Sei, Fuel, MegaETH itp., próbuje dalej wprowadzać najnowocześniejsze pomysły, takie jak wykonywanie potoków, optymistyczna współbieżność, partycjonowanie pamięci masowej i równoległe rozprzęganie w celu zbudowania wysokowydajnych rdzeni wykonawczych podobnych do nowoczesnych procesorów. Główną zaletą tego kierunku jest to, że nie musi on polegać na architekturze wielołańcuchowej, aby osiągnąć przełom w limicie przepustowości, a jednocześnie zapewnia wystarczającą elastyczność obliczeniową do wykonywania złożonych inteligentnych kontraktów, co jest ważnym technicznym warunkiem wstępnym dla przyszłych scenariuszy zastosowań, takich jak AI Agent, gry łańcuchowe na dużą skalę i pochodne wysokiej częstotliwości. Patrząc na powyższe pięć typów ścieżek skalowania, podział, który za nimi stoi, to w rzeczywistości systematyczny kompromis między wydajnością, komponowalnością, bezpieczeństwem i złożonością rozwoju blockchaina. Rollup jest silny w outsourcingu konsensusu i bezpiecznym dziedziczeniu, modułowość podkreśla elastyczność strukturalną i ponowne wykorzystanie komponentów, skalowanie poza łańcuchem próbuje przebić się przez wąskie gardło głównego łańcucha, ale koszt zaufania jest wysoki, a równoległość wewnątrz łańcucha koncentruje się na fundamentalnym ulepszeniu warstwy wykonawczej, próbując zbliżyć się do granicy wydajności nowoczesnych systemów rozproszonych bez niszczenia spójności łańcucha. Niemożliwe jest, aby każda ze ścieżek rozwiązała wszystkie problemy, ale to właśnie te kierunki razem tworzą panoramę aktualizacji paradygmatu obliczeniowego Web3, a także zapewniają deweloperom, architektom i inwestorom niezwykle bogate opcje strategiczne. Tak jak system operacyjny przesunął się z jednordzeniowego na wielordzeniowy, a bazy danych ewoluowały od sekwencyjnych indeksów do jednoczesnych transakcji, ekspansja Web3 ostatecznie przesunie się w kierunku wysoce równoległej ery wykonawczej. W tej epoce wydajność nie jest już tylko wyścigiem prędkości łańcucha, ale kompleksowym ucieleśnieniem podstawowej filozofii projektowania, głębokiego zrozumienia architektury, współpracy oprogramowania i sprzętu oraz kontroli systemu. A równoległość wewnątrz łańcucha może być ostatecznym polem bitwy w tej długotrwałej wojnie. 3. Wykres klasyfikacji obliczeń równoległych: pięć ścieżek od konta do instrukcji W kontekście ciągłej ewolucji technologii skalowania blockchain, przetwarzanie równoległe stopniowo stało się główną ścieżką do przełomowych odkryć w zakresie wydajności. W odróżnieniu od poziomego rozprzęgania warstwy struktury, warstwy sieciowej lub warstwy dostępności danych, przetwarzanie równoległe to głębokie wydobycie w warstwie wykonawczej, które jest związane z najniższą logiką wydajności operacyjnej łańcucha bloków i określa szybkość odpowiedzi i zdolność przetwarzania systemu blockchain w obliczu wysokiej współbieżności i wielotypowych złożonych transakcji. Wychodząc od modelu wykonawczego i dokonując przeglądu rozwoju tej linii technologicznej, możemy uporządkować przejrzystą mapę klasyfikacyjną obliczeń równoległych, którą można z grubsza podzielić na pięć ścieżek technicznych: równoległość na poziomie konta, równoległość na poziomie obiektu, równoległość na poziomie transakcji, równoległość na poziomie maszyny wirtualnej i równoległość na poziomie instrukcji. Te pięć typów ścieżek, od gruboziarnistych do drobnoziarnistych, to nie tylko ciągły proces udoskonalania logiki równoległej, ale także ścieżka rosnącej złożoności systemu i trudności w planowaniu. Najwcześniejszy równoległość na poziomie konta był reprezentowany przez Solana. Model ten opiera się na projekcie rozdzielenia konta i stanu i określa, czy istnieje relacja powodująca konflikt, poprzez statyczną analizę zestawu kont zaangażowanych w transakcję. Jeśli dwie transakcje uzyskują dostęp do zestawu kont, które nie nakładają się na siebie, mogą być wykonywane jednocześnie na wielu rdzeniach. Mechanizm ten jest idealny do radzenia sobie z dobrze ustrukturyzowanymi transakcjami z jasnymi danymi wejściowymi i wyjściowymi, szczególnie w przypadku programów o przewidywalnych ścieżkach, takich jak DeFi. Jednak jego naturalnym założeniem jest to, że dostęp do konta jest przewidywalny, a zależność od stanu można wywnioskować statycznie, co czyni go podatnym na konserwatywne wykonywanie i zmniejszoną równoległość w obliczu złożonych inteligentnych kontraktów (takich jak dynamiczne zachowania, takie jak gry łańcuchowe i agenci AI). Ponadto wzajemna zależność między rachunkami sprawia również, że równoległe zwroty są poważnie osłabione w niektórych scenariuszach handlu o wysokiej częstotliwości. Czas działania Solany jest wysoce zoptymalizowany pod tym względem, ale jego podstawowa strategia planowania jest nadal ograniczona przez stopień szczegółowości konta. Dalsze doprecyzowanie w oparciu o model konta, wchodzimy w techniczny poziom równoległości na poziomie obiektu. Równoległość na poziomie obiektu wprowadza semantyczną abstrakcję zasobów i modułów, z jednoczesnym planowaniem w bardziej szczegółowych jednostkach "obiektów stanu". Aptos i Sui są ważnymi badaczami w tym kierunku, zwłaszcza ten drugi, który definiuje własność i zmienność zasobów w czasie kompilacji za pomocą liniowego systemu typów języka Move, umożliwiając środowisku wykonawczemu precyzyjną kontrolę konfliktów dostępu do zasobów. W porównaniu z równoległością na poziomie konta ta metoda jest bardziej wszechstronna i skalowalna, może obejmować bardziej złożoną logikę odczytu i zapisu stanu oraz naturalnie obsługuje wysoce heterogeniczne scenariusze, takie jak gry, sieci społecznościowe i sztuczna inteligencja. Jednak równoległość na poziomie obiektu wprowadza również wyższy próg językowy i złożoność programowania, a Move nie jest bezpośrednim zamiennikiem Solidity, a wysoki koszt ekologicznego przełączania ogranicza popularyzację jego równoległego paradygmatu. Dalszy równoległość na poziomie transakcji to kierunek, w którym podąża nowa generacja wysokowydajnych łańcuchów reprezentowanych przez Monad, Sei i Fuel. Zamiast traktować stany lub konta jako najmniejszą jednostkę równoległości, ścieżka jest budowana wokół wykresu zależności wokół całej transakcji. Traktuje transakcje jako niepodzielne jednostki operacji, tworzy wykresy transakcji (grupy DAG transakcji) za pomocą analizy statycznej lub dynamicznej i opiera się na harmonogramach do współbieżnego wykonywania przepływów. Taka konstrukcja pozwala systemowi zmaksymalizować równoległość wydobycia bez konieczności pełnego zrozumienia podstawowej struktury stanu. Monad jest szczególnie godny uwagi ze względu na połączenie nowoczesnych technologii silników baz danych, takich jak Optimistic Concurrency Control (OCC), Parallel Pipeline Scheduling i Out-of-Order Execution, zbliżając wykonywanie łańcuchów do paradygmatu "harmonogramu GPU". W praktyce mechanizm ten wymaga niezwykle złożonych menedżerów zależności i detektorów konfliktów, a wąskim gardłem może stać się również sam scheduler, ale jego potencjalna przepustowość jest znacznie wyższa niż modelu konta czy obiektu, co czyni go najbardziej teoretyczną siłą w obecnej ścieżce obliczeń równoległych. Z drugiej strony równoległość na poziomie maszyny wirtualnej osadza możliwości współbieżnego wykonywania bezpośrednio w podstawowej logice planowania instrukcji maszyny wirtualnej, dążąc do całkowitego przełamania nieodłącznych ograniczeń wykonywania sekwencji EVM. MegaETH, jako "eksperyment z super maszyną wirtualną" w ekosystemie Ethereum, próbuje przeprojektować EVM, aby obsługiwał wielowątkowe jednoczesne wykonywanie kodu inteligentnego kontraktu. Warstwa podstawowa umożliwia każdemu kontraktowi niezależne uruchamianie w różnych kontekstach wykonywania za pomocą mechanizmów, takich jak wykonywanie segmentowane, segmentacja stanu i wywołanie asynchroniczne, a także zapewnia ostateczną spójność za pomocą warstwy synchronizacji równoległej. Najtrudniejszym aspektem tego podejścia jest to, że musi ono być w pełni kompatybilne z istniejącą semantyką zachowania EVM, przy jednoczesnej reorganizacji całego środowiska wykonawczego i mechanizmu gazowego, aby umożliwić ekosystemowi Solidity płynną migrację do równoległego frameworka. Wyzwaniem jest nie tylko głębokość stosu technologicznego, ale także akceptacja znaczących zmian w strukturze politycznej L1 Ethereum. Ale jeśli się powiedzie, MegaETH zapowiada się na "rewolucję procesorów wielordzeniowych" w przestrzeni EVM. Ostatnim typem ścieżki jest równoległość na poziomie instrukcji, która jest najbardziej szczegółowa i ma najwyższy próg techniczny. Pomysł wywodzi się z potoku wykonywania i instrukcji poza kolejnością w nowoczesnym projekcie procesora. Paradygmat ten twierdzi, że ponieważ każdy inteligentny kontrakt jest ostatecznie kompilowany w instrukcje kodu bajtowego, całkowicie możliwe jest zaplanowanie i przegrupowanie każdej operacji równolegle jako procesora wykonującego zestaw instrukcji x 86. Zespół Fuel początkowo wprowadził model wykonywania na poziomie instrukcji z możliwością ponownego uporządkowania w swoim FuelVM, a w dłuższej perspektywie, gdy silnik wykonawczy blockchain zaimplementuje predykcyjne wykonywanie i dynamiczne przegrupowanie zależności od instrukcji, jego równoległość osiągnie teoretyczny limit. Takie podejście może nawet przenieść wspólne projektowanie blockchain-hardware na zupełnie nowy poziom, czyniąc łańcuch prawdziwym "zdecentralizowanym komputerem", a nie tylko "rozproszoną księgą". Oczywiście ta ścieżka jest jeszcze w fazie teoretycznej i eksperymentalnej, a odpowiednie schedulery i mechanizmy weryfikacji bezpieczeństwa nie są jeszcze dojrzałe, ale wskazują na ostateczną granicę przyszłości obliczeń równoległych. Podsumowując, pięć ścieżek konta, obiektu, transakcji, maszyny wirtualnej i instrukcji stanowi spektrum rozwoju wewnątrzłańcuchowych obliczeń równoległych, od statycznej struktury danych po dynamiczny mechanizm planowania, od przewidywania dostępu do stanu po reorganizację na poziomie instrukcji, każdy krok technologii równoległej oznacza znaczny wzrost złożoności systemu i progu rozwoju. Ale jednocześnie oznaczają one również zmianę paradygmatu w modelu obliczeniowym blockchain, od tradycyjnego rejestru konsensusu pełnej sekwencji do wysokowydajnego, przewidywalnego i dyspozycyjnego rozproszonego środowiska wykonawczego. Jest to nie tylko nadrobienie zaległości w zakresie wydajności przetwarzania w chmurze Web2, ale także głęboka koncepcja ostatecznej formy "komputera blockchain". Wybór równoległych ścieżek dla różnych łańcuchów publicznych określi również akceptowalną górną granicę ich przyszłych ekosystemów aplikacji, a także ich podstawową konkurencyjność w scenariuszach takich jak AI Agent, gry łańcuchowe i handel on-chain o wysokiej częstotliwości. Po czwarte, wyjaśnione są dwie główne ścieżki: Monad vs MegaETH Spośród wielu ścieżek ewolucji obliczeń równoległych, dwie główne ścieżki techniczne o największym skupieniu, najwyższym głosie i najbardziej kompletnej narracji na obecnym rynku to bez wątpienia "budowanie równoległego łańcucha obliczeniowego od podstaw" reprezentowane przez Monad oraz "równoległa rewolucja w EVM" reprezentowana przez MegaETH. Te dwa są nie tylko najbardziej intensywnymi kierunkami badawczo-rozwojowymi dla obecnych prymitywnych inżynierów kryptograficznych, ale także najbardziej decydującymi symbolami biegunowymi w obecnym wyścigu wydajności komputerów Web3. Różnica między nimi polega nie tylko na punkcie wyjścia i stylu architektury technicznej, ale także na obiektach ekologicznych, którym służą, kosztach migracji, filozofii realizacji i przyszłej ścieżce strategicznej, która za nimi stoi. Reprezentują one równoległą konkurencję paradygmatu między "rekonstrukcjonizmem" a "kompatybilnizmem" i głęboko wpłynęły na wyobrażenia rynku o ostatecznej formie łańcuchów o wysokiej wydajności. Monad jest na wskroś "fundamentalistą obliczeniowym", a jego filozofia projektowania nie jest zaprojektowana tak, aby była kompatybilna z istniejącymi EVM, ale raczej aby na nowo zdefiniować podstawowy sposób, w jaki silniki wykonawcze blockchain działają pomysłowo, czerpiąc inspirację z nowoczesnych baz danych i wysokowydajnych systemów wielordzeniowych. Jego podstawowy system technologiczny opiera się na dojrzałych mechanizmach w dziedzinie baz danych, takich jak optymistyczna kontrola współbieżności, planowanie transakcji DAG, wykonywanie poza kolejnością i wykonywanie potokowe, mające na celu zwiększenie wydajności przetwarzania transakcji w łańcuchu do rzędu milionów TPS. W architekturze Monad wykonywanie i porządkowanie transakcji jest całkowicie rozłączone, a system najpierw buduje wykres zależności transakcji, a następnie przekazuje go do harmonogramu w celu równoległego wykonania. Wszystkie transakcje są traktowane jako niepodzielne jednostki transakcji, z jawnymi zestawami odczytu i zapisu oraz migawkami stanu, a harmonogramy są wykonywane optymistycznie na podstawie wykresów zależności, wycofując się i ponownie wykonując, gdy wystąpią konflikty. Mechanizm ten jest niezwykle złożony pod względem implementacji technicznej, wymagający budowy stosu wykonawczego podobnego do tego, jaki posiada nowoczesny menedżer transakcji bazy danych, a także wprowadzenia mechanizmów takich jak buforowanie wielopoziomowe, pobieranie z wyprzedzeniem, walidacja równoległa itp., w celu kompresji opóźnienia zatwierdzenia stanu końcowego, ale teoretycznie może przesunąć granicę przepustowości do wysokości, których nie wyobraża sobie obecny łańcuch. Co ważniejsze, Monad nie zrezygnował z interoperacyjności z EVM. Wykorzystuje warstwę pośrednią podobną do "Solidity-Compatible Intermediate Language", aby wspierać programistów w pisaniu kontraktów w składni Solidity, a jednocześnie przeprowadzać optymalizację języka pośredniego i planowanie równoległości w silniku wykonawczym. Ta strategia projektowania polegająca na "kompatybilności powierzchniowej i refaktoryzacji dna" nie tylko zachowuje przyjazność ekologicznych deweloperów Ethereum, ale także w największym stopniu uwalnia podstawowy potencjał wykonawczy, co jest typową strategią techniczną polegającą na "połykaniu EVM, a następnie jego dekonstrukcji". Oznacza to również, że po uruchomieniu Monad stanie się nie tylko suwerennym łańcuchem o ekstremalnej wydajności, ale także idealną warstwą wykonawczą dla sieci rollupowych warstwy 2, a nawet "podłączanym rdzeniem o wysokiej wydajności" dla innych modułów wykonawczych łańcucha w dłuższej perspektywie. Z tego punktu widzenia Monad to nie tylko droga techniczna, ale także nowa logika projektowania suwerenności systemu, która opowiada się za "modularyzacją, wydajnością i możliwością ponownego wykorzystania" warstwy wykonawczej, aby stworzyć nowy standard dla międzyłańcuchowego przetwarzania zespołowego. W przeciwieństwie do stanowiska Monada w sprawie "nowego budowniczego świata", MegaETH jest zupełnie odwrotnym rodzajem projektu, decydującym się na start od istniejącego świata Ethereum i osiągnięcie znacznego wzrostu wydajności realizacji przy minimalnych kosztach zmian. MegaETH nie obala specyfikacji EVM, ale raczej dąży do wbudowania możliwości obliczeń równoległych w silnik wykonawczy istniejących EVM, tworząc przyszłą wersję "wielordzeniowego EVM". Uzasadnieniem jest całkowita refaktoryzacja obecnego modelu wykonywania instrukcji EVM z takimi możliwościami, jak izolacja na poziomie wątku, asynchroniczne wykonywanie na poziomie kontraktu i wykrywanie konfliktów dostępu do stanu, co pozwala wielu inteligentnym kontraktom działać jednocześnie w tym samym bloku i ostatecznie scalać zmiany stanu. Model ten wymaga od programistów osiągnięcia znacznego wzrostu wydajności z tego samego kontraktu wdrożonego w łańcuchu MegaETH bez zmiany istniejących kontraktów Solidity, przy użyciu nowych języków lub łańcuchów narzędzi. Ta ścieżka "konserwatywnej rewolucji" jest niezwykle atrakcyjna, szczególnie dla ekosystemu Ethereum L2, ponieważ stanowi idealną ścieżkę do bezbolesnych ulepszeń wydajności bez konieczności migracji składni. Główny przełom w MegaETH polega na wielowątkowym mechanizmie planowania maszyn wirtualnych. Tradycyjne EVM wykorzystują stosowy, jednowątkowy model wykonywania, w którym każda instrukcja jest wykonywana liniowo, a aktualizacje stanu muszą odbywać się synchronicznie. MegaETH przełamuje ten wzorzec i wprowadza asynchroniczny stos wywołań i mechanizm izolacji kontekstu wykonywania, tak aby osiągnąć jednoczesne wykonywanie "współbieżnych kontekstów EVM". Każdy kontrakt może wywoływać własną logikę w osobnym wątku, a wszystkie wątki będą jednolicie wykrywać i zbieżne stan za pośrednictwem równoległej warstwy zatwierdzania, gdy stan zostanie ostatecznie przesłany. Mechanizm ten jest bardzo podobny do wielowątkowego modelu JavaScript nowoczesnych przeglądarek (Web Workers + Shared Memory + Lock-Free Data), który zachowuje determinizm zachowania głównego wątku i wprowadza wysokowydajny mechanizm planowania, który jest asynchroniczny w tle. W praktyce ten projekt jest również bardzo przyjazny dla budowniczych bloków i wyszukiwarek, a także może optymalizować porządkowanie mempool i ścieżki przechwytywania MEV zgodnie ze strategią równoległą, tworząc zamkniętą pętlę korzyści ekonomicznych w warstwie wykonawczej. Co ważniejsze, MegaETH decyduje się na głębokie powiązanie z ekosystemem Ethereum, a jego głównym miejscem lądowania w przyszłości będzie prawdopodobnie sieć EVM L2 Rollup, taka jak łańcuch Optimism, Base lub Arbitrum Orbit. Po przyjęciu na dużą skalę, może osiągnąć prawie 100-krotną poprawę wydajności w stosunku do istniejącego stosu technologicznego Ethereum bez zmiany semantyki kontraktów, modelu stanu, logiki gazu, metod wywoływania itp., co czyni go atrakcyjnym kierunkiem modernizacji technologii dla konserwatystów EVM. Paradygmat MegaETH jest następujący: tak długo, jak nadal robisz rzeczy na Ethereum, pozwolę, aby Twoja wydajność obliczeniowa gwałtownie wzrosła. Z punktu widzenia realizmu i inżynierii jest łatwiejszy do wdrożenia niż Monad i jest bardziej zgodny z iteracyjną ścieżką głównych projektów DeFi i NFT, co czyni go kandydatem, który ma większe szanse na otrzymanie wsparcia ekologicznego w krótkim okresie. W pewnym sensie dwie trasy Monad i MegaETH to nie tylko dwie implementacje równoległych ścieżek technologicznych, ale także klasyczna konfrontacja między "refaktoryzacją" a "kompatybilnością" na ścieżce rozwoju blockchain: pierwsza z nich dąży do przełomu w paradygmacie i rekonstruuje całą logikę od maszyn wirtualnych po leżące u podstaw zarządzanie stanem, aby osiągnąć najwyższą wydajność i plastyczność architektoniczną; Ten ostatni dąży do stopniowej optymalizacji, popychając tradycyjne systemy do granic możliwości, jednocześnie respektując istniejące ograniczenia ekologiczne, minimalizując w ten sposób koszty migracji. Nie ma między nimi absolutnych zalet ani wad, ale służą one różnym grupom programistów i wizjom ekosystemu. Monad jest bardziej odpowiedni do budowania nowych systemów od podstaw, gier łańcuchowych, które dążą do ekstremalnej przepustowości, agentów AI i modułowych łańcuchów wykonawczych. Z drugiej strony MegaETH jest bardziej odpowiedni dla projektów L2, projektów DeFi i protokołów infrastrukturalnych, które chcą osiągnąć wzrost wydajności przy minimalnych zmianach w rozwoju. Są jak pociągi dużych prędkości na nowym torze, przedefiniowane z toru, sieci energetycznej na karoserię, tylko po to, aby osiągnąć niespotykaną prędkość i doświadczenie; Innym przykładem jest instalowanie turbin na istniejących autostradach, poprawa harmonogramu pasów ruchu i konstrukcji silnika, dzięki czemu pojazdy mogą jechać szybciej bez opuszczania znanej sieci drogowej. Oba mogą skończyć się w ten sam sposób: w następnej fazie modułowych architektur blockchain, Monad może stać się modułem "egzekucji jako usługi" dla Rollupów, a MegaETH może stać się wtyczką przyspieszającą wydajność dla głównych L2. Te dwa elementy mogą ostatecznie się zjednoczyć, tworząc dwa skrzydła wysokowydajnego silnika wykonawczego rozproszonego w przyszłym świecie Web3. 5. Przyszłe możliwości i wyzwania związane z obliczeniami równoległymi W miarę jak przetwarzanie równoległe przechodzi od projektowania opartego na dokumentach papierowych do wdrażania on-chain, potencjał, który odblokowuje, staje się coraz bardziej konkretny i mierzalny. Z jednej strony widzimy, że nowe paradygmaty rozwoju i modele biznesowe zaczęły na nowo definiować "wydajność on-chain": bardziej złożona logika gier łańcuchowych, bardziej realistyczny cykl życia agenta AI, więcej protokołów wymiany danych w czasie rzeczywistym, bardziej wciągające interaktywne doświadczenia, a nawet systemy operacyjne Super App oparte na współpracy w łańcuchu zmieniają się z "czy możemy to zrobić" na "jak dobre to może być". Z drugiej strony, tym, co naprawdę napędza przejście na przetwarzanie równoległe, jest nie tylko liniowa poprawa wydajności systemu, ale także strukturalna zmiana granic poznawczych programistów i kosztów migracji ekologicznej. Tak jak wprowadzenie przez Ethereum mechanizmu kontraktów Turing-complete dało początek wielowymiarowej eksplozji DeFi, NFT i DAO, tak "asynchroniczna rekonstrukcja między stanem a instrukcjami" spowodowana przez obliczenia równoległe rodzi również nowy model świata on-chain, który jest nie tylko rewolucją w wydajności wykonania, ale także wylęgarnią innowacji w zakresie rozszczepienia w strukturze produktu. Przede wszystkim, z perspektywy możliwości, najbardziej bezpośrednią korzyścią jest "podniesienie pułapu aplikacji". Większość obecnych aplikacji DeFi, gier i aplikacji społecznościowych jest ograniczona przez wąskie gardła stanu, koszty gazu i opóźnienia i nie może naprawdę przenosić interakcji o wysokiej częstotliwości w łańcuchu na dużą skalę. Biorąc za przykład gry łańcuchowe, GameFi z rzeczywistym sprzężeniem zwrotnym ruchu, synchronizacją zachowań o wysokiej częstotliwości i logiką walki w czasie rzeczywistym prawie nie istnieje, ponieważ liniowe wykonanie tradycyjnych EVM nie może obsługiwać transmisyjnego potwierdzenia dziesiątek zmian stanu na sekundę. Dzięki wsparciu obliczeń równoległych, poprzez mechanizmy takie jak DAG transakcyjne i konteksty asynchroniczne na poziomie kontraktu, można konstruować łańcuchy o wysokiej współbieżności, a deterministyczne wyniki wykonywania można zagwarantować poprzez spójność migawek, aby osiągnąć strukturalny przełom w "silniku gier on-chain". Podobnie, wdrażanie i obsługa agentów AI również zostanie znacznie ulepszone dzięki przetwarzaniu równoległemu. W przeszłości mieliśmy tendencję do uruchamiania agentów AI poza łańcuchem i przesyłania wyników ich zachowań tylko do kontraktów on-chain, ale w przyszłości on-chain może obsługiwać asynchroniczną współpracę i udostępnianie stanów między wieloma podmiotami AI poprzez równoległe planowanie transakcji, aby naprawdę zrealizować autonomiczną logikę agenta w łańcuchu w czasie rzeczywistym. Obliczenia równoległe będą infrastrukturą dla tego "kontraktu opartego na zachowaniu", napędzając Web3 z "transakcji jako aktywa" do nowego świata "interakcji jako agenta". Po drugie, łańcuch narzędzi programistycznych i warstwa abstrakcji maszyn wirtualnych również zostały strukturalnie przekształcone ze względu na równoległość. Tradycyjny paradygmat rozwoju Solidity opiera się na modelu myślenia szeregowego, w którym programiści są przyzwyczajeni do projektowania logiki jako jednowątkowej zmiany stanu, ale w architekturach obliczeń równoległych programiści będą zmuszeni do myślenia o konfliktach zestawów odczytu/zapisu, zasadach izolacji stanu, nieotomności transakcji, a nawet wprowadzaniu wzorców architektonicznych opartych na kolejkach komunikatów lub potokach stanów. Ten skok w strukturze kognitywnej doprowadził również do szybkiego rozwoju nowej generacji łańcuchów narzędziowych. Na przykład równoległe ramy inteligentnych kontraktów, które obsługują deklaracje zależności transakcyjnych, kompilatory optymalizacyjne oparte na IR i współbieżne debuggery, które obsługują symulację migawek transakcji, staną się siedliskiem eksplozji infrastruktury w nowym cyklu. Jednocześnie ciągła ewolucja modułowych blockchainów przyniosła również doskonałą ścieżkę docelową dla obliczeń równoległych: Monad może zostać wstawiona do L2 Rollup jako moduł wykonawczy, MegaETH może być wdrożony jako zamiennik EVM dla głównych łańcuchów, Celestia zapewnia obsługę warstwy dostępności danych, a EigenLayer zapewnia zdecentralizowaną sieć walidatorów, tworząc w ten sposób wysokowydajną zintegrowaną architekturę od danych bazowych do logiki wykonania. Jednak postęp w dziedzinie obliczeń równoległych nie jest łatwą drogą, a wyzwania są jeszcze bardziej strukturalne i trudne do pokonania niż możliwości. Z jednej strony podstawowe trudności techniczne leżą w "gwarancji spójności współbieżności stanów" i "strategii radzenia sobie z konfliktami transakcji". W przeciwieństwie do baz danych poza łańcuchem, on-chain nie może tolerować arbitralnego stopnia wycofywania transakcji lub wycofywania stanu, a wszelkie konflikty wykonania muszą być modelowane z wyprzedzeniem lub precyzyjnie kontrolowane podczas zdarzenia. Oznacza to, że harmonogram równoległy musi mieć silne możliwości konstruowania wykresów zależności i przewidywania konfliktów, a jednocześnie zaprojektować wydajny mechanizm odporności na błędy wykonania optymistycznego, w przeciwnym razie system jest podatny na "burzę ponawiania prób jednoczesnych awarii" pod dużym obciążeniem, które nie tylko wzrasta, ale maleje, a nawet powoduje niestabilność łańcucha. Co więcej, obecny model bezpieczeństwa wielowątkowego środowiska wykonawczego nie został jeszcze w pełni ustalony, taki jak precyzja mechanizmu izolacji stanów między wątkami, nowe wykorzystanie ataków re-entrancy w kontekstach asynchronicznych oraz eksplozja gazu w krzyżowych wywołaniach kontraktów, które są nowymi problemami, które należy rozwiązać. Bardziej podstępne wyzwania wynikają z aspektów ekologicznych i psychologicznych. To, czy programiści są skłonni do migracji do nowego paradygmatu, czy są w stanie opanować metody projektowania modeli równoległych i czy są skłonni zrezygnować z części czytelności i audytowalności kontraktowej na rzecz korzyści w zakresie wydajności, jest kluczem do tego, czy obliczenia równoległe mogą tworzyć potencjalną energię ekologiczną. W ciągu ostatnich kilku lat zaobserwowaliśmy, że wiele łańcuchów o doskonałej wydajności, ale pozbawionych wsparcia dla programistów, stopniowo milknie, takich jak NEAR, Avalanche, a nawet niektóre łańcuchy Cosmos SDK, które znacznie przewyższają EVM, a ich doświadczenie przypomina nam, że bez programistów nie ma ekosystemu; Bez ekologii, bez względu na to, jak dobre są osiągi, jest to po prostu zamek w powietrzu. W związku z tym projekty obliczeń równoległych powinny nie tylko tworzyć najsilniejszy silnik, ale także najłagodniejszą ścieżkę przejścia ekologicznego, tak aby "wydajność była gotowa do użycia", a nie "wydajność była progiem poznawczym". Ostatecznie przyszłość obliczeń równoległych jest zarówno triumfem inżynierii systemów, jak i testem dla ekoprojektowania. Zmusi nas to do ponownego zastanowienia się nad tym, "co jest istotą łańcucha": czy jest to zdecentralizowana maszyna rozliczeniowa, czy globalnie rozproszony koordynator stanu w czasie rzeczywistym? Jeśli tak jest w drugim przypadku, to możliwości przepustowości stanu, współbieżności transakcji i responsywności kontraktów, które wcześniej były uważane za "szczegóły techniczne łańcucha", ostatecznie staną się podstawowymi wskaźnikami definiującymi wartość łańcucha. Paradygmat obliczeń równoległych, który naprawdę zakończy tę transformację, stanie się również najbardziej podstawowym i najbardziej złożonym prymitywem infrastruktury w tym nowym cyklu, a jego wpływ będzie wykraczał daleko poza moduł techniczny i może stanowić punkt zwrotny w ogólnym paradygmacie obliczeniowym Web3. 6. Wniosek: Czy przetwarzanie równoległe jest najlepszą ścieżką do natywnego skalowania Web3? Spośród wszystkich ścieżek, które badają granice wydajności Web3, przetwarzanie równoległe nie jest najłatwiejsze do wdrożenia, ale może być najbliższe istocie blockchaina. Nie migruje poza łańcuch, ani nie poświęca decentralizacji w zamian za przepustowość, ale stara się zrekonstruować sam model wykonawczy w atomowości i determinizmie łańcucha, od warstwy transakcji, warstwy kontraktów i warstwy maszyn wirtualnych do źródła wąskiego gardła wydajności. Ta "natywna dla łańcucha" metoda skalowania nie tylko zachowuje podstawowy model zaufania blockchaina, ale także rezerwuje zrównoważoną glebę wydajności dla bardziej złożonych aplikacji on-chain w przyszłości. Jego trudność tkwi w strukturze, a jego urok tkwi w strukturze. Jeśli refaktoryzacja modułowa jest "architekturą łańcucha", to refaktoryzacja obliczeń równoległych jest "duszą łańcucha". Być może nie jest to droga na skróty do odprawy celnej, ale prawdopodobnie będzie to jedyne trwałe pozytywne rozwiązanie w długoterminowej ewolucji Web3. Jesteśmy świadkami przejścia architektury od procesorów jednordzeniowych do wielordzeniowych/wielowątkowych systemów operacyjnych, a pojawienie się natywnych dla Web3 systemów operacyjnych może być ukryte w tych równoległych eksperymentach w łańcuchu.
Pokaż oryginał
124,55 tys.
1
TechFlow
TechFlow
1. Wprowadzenie: Ekspansja jest wieczną propozycją, a równoległość jest ostatecznym polem bitwy Od narodzin Bitcoina, system blockchain zawsze borykał się z nieuniknionym podstawowym problemem: skalowaniem. Bitcoin przetwarza mniej niż 10 transakcji na sekundę, a Ethereum ma trudności z przebiciem się przez wąskie gardło wydajności dziesiątek TPS (transakcji na sekundę), co jest szczególnie uciążliwe w tradycyjnym świecie Web2, który często wynosi dziesiątki tysięcy TPS. Co ważniejsze, nie jest to prosty problem, który można rozwiązać poprzez "dodawanie serwerów", ale ograniczenie systemowe głęboko osadzone w podstawowym konsensusie i projekcie strukturalnym blockchaina - czyli niemożliwym trójkącie łańcucha bloków, w którym nie można połączyć "decentralizacji, bezpieczeństwa i skalowalności". W ciągu ostatniej dekady byliśmy świadkami niezliczonych prób ekspansji, które wznosiły się i upadały. Od wojny o skalowanie Bitcoina po wizję shardingu Ethereum, od kanałów stanowych i plazmy po rollupy i modułowe blockchainy, od realizacji poza łańcuchem w warstwie 2 po strukturalną refaktoryzację dostępności danych, cała branża wkroczyła na ścieżkę skalowania pełną inżynieryjnej wyobraźni. Jako najszerzej akceptowany paradygmat skalowania, rollup osiągnął cel, jakim jest znaczne zwiększenie TPS przy jednoczesnym zmniejszeniu obciążenia wykonawczego głównego łańcucha i zachowaniu bezpieczeństwa Ethereum. Nie dotyka to jednak prawdziwych granic leżącej u podstaw blockchaina "wydajności pojedynczego łańcucha", zwłaszcza na poziomie wykonania, który jest przepustowością samego bloku – jest nadal ograniczony przez starożytny paradygmat przetwarzania obliczeń szeregowych w łańcuchu. Z tego powodu przetwarzanie równoległe w łańcuchu stopniowo wkroczyło w pole widzenia branży. W odróżnieniu od skalowania poza łańcuchem i dystrybucji między łańcuchami, równoległość wewnątrz łańcucha próbuje całkowicie zrekonstruować silnik wykonawczy przy zachowaniu niepodzielności i zintegrowanej struktury pojedynczego łańcucha, a także aktualizuje łańcuch bloków z trybu jednowątkowego "szeregowego wykonywania jednej transakcji po drugiej" do systemu obliczeniowego o wysokiej współbieżności "wielowątkowość + potok + planowanie zależności" pod kierunkiem nowoczesnego systemu operacyjnego i projektu procesora. Taka ścieżka może nie tylko osiągnąć stukrotny wzrost przepustowości, ale także może stać się kluczowym warunkiem wstępnym dla eksplozji aplikacji inteligentnych kontraktów. W rzeczywistości w paradygmacie obliczeń Web2 przetwarzanie jednowątkowe już dawno zostało wyeliminowane przez nowoczesne architektury sprzętowe i zastąpione przez niekończący się strumień modeli optymalizacji, takich jak programowanie równoległe, planowanie asynchroniczne, pule wątków i mikrousługi. Blockchain, jako bardziej prymitywny i konserwatywny system obliczeniowy o niezwykle wysokich wymaganiach dotyczących pewności i weryfikowalności, nigdy nie był w stanie w pełni wykorzystać tych pomysłów na obliczenia równoległe. Jest to zarówno ograniczenie, jak i szansa. Nowe łańcuchy, takie jak Solana, Sui i Aptos, są pierwszymi, które rozpoczynają tę eksplorację, wprowadzając równoległość na poziomie architektury. Pojawiające się projekty, takie jak Monad i MegaETH, jeszcze bardziej podniosły równoległość on-chain do przełomów w głębokich mechanizmach, takich jak wykonywanie potoków, optymistyczna współbieżność i asynchroniczne sterowanie komunikatami, wykazując cechy, które coraz bardziej zbliżają się do nowoczesnych systemów operacyjnych. Można powiedzieć, że obliczenia równoległe to nie tylko "metoda optymalizacji wydajności", ale także punkt zwrotny w paradygmacie modelu wykonawczego blockchain. Rzuca wyzwanie podstawowym wzorcom realizacji inteligentnych kontraktów i na nowo definiuje podstawową logikę pakowania transakcji, dostępu do stanu, relacji połączeń i układu pamięci masowej. Jeśli rollup polega na "przenoszeniu transakcji do wykonania poza łańcuchem", to równoległość on-chain to "budowanie rdzeni superkomputerowych w łańcuchu", a jego celem nie jest po prostu poprawa przepustowości, ale zapewnienie prawdziwie zrównoważonego wsparcia infrastrukturalnego dla przyszłych natywnych aplikacji Web3 (handel o wysokiej częstotliwości, silniki gier, wykonywanie modeli AI, społecznościowe on-chain itp.). Po tym, jak ścieżka rollupu stopniowo dąży do jednorodności, równoległość wewnątrz łańcucha po cichu staje się decydującą zmienną nowego cyklu konkurencji warstwy 1. Wydajność to już nie tylko "szybsza maszyna", ale możliwość obsługi całego heterogenicznego świata aplikacji. To nie tylko wyścig techniczny, ale także walka o paradygmat. Następna generacja suwerennych platform wykonawczych w świecie Web3 prawdopodobnie wyłoni się z tych równoległych zapasów wewnątrz łańcucha. 2. Paradygmat panoramy ekspansji: pięć rodzajów tras, z których każda ma swój własny nacisk Rozbudowa zdolności produkcyjnych, jako jeden z najważniejszych, trwałych i najtrudniejszych tematów w ewolucji technologii łańcucha publicznego, doprowadziła do powstania i ewolucji prawie wszystkich głównych ścieżek technologicznych w ciągu ostatniej dekady. Zaczynając od bitwy o rozmiar bloku Bitcoina, ten techniczny konkurs na temat "jak przyspieszyć działanie łańcucha" ostatecznie podzielił się na pięć podstawowych tras, z których każda wcina się w wąskie gardło pod innym kątem, z własną filozofią techniczną, trudnością lądowania, modelem ryzyka i możliwymi do zastosowania scenariuszami. Pierwsza droga to najprostsze skalowanie on-chain, co oznacza zwiększenie rozmiaru bloku, skrócenie czasu bloku lub poprawę mocy obliczeniowej poprzez optymalizację struktury danych i mechanizmu konsensusu. Podejście to było przedmiotem debaty na temat skalowania Bitcoina, dając początek forkom "big block", takim jak BCH i BSV, a także wpływając na pomysły projektowe wczesnych, wysokowydajnych łańcuchów publicznych, takich jak EOS i NEO. Zaletą tego rodzaju trasy jest to, że zachowuje prostotę spójności pojedynczego łańcucha, która jest łatwa do zrozumienia i wdrożenia, ale bardzo łatwo jest również dotknąć systemowej górnej granicy, takiej jak ryzyko centralizacji, rosnące koszty operacyjne węzłów i zwiększona trudność synchronizacji, więc nie jest to już główne rozwiązanie rdzeniowe w dzisiejszym projekcie, ale stało się bardziej pomocniczą kolokacją innych mechanizmów. Drugim typem trasy jest skalowanie poza łańcuchem, które jest reprezentowane przez kanały stanów i łańcuchy boczne. Podstawową ideą tego typu ścieżki jest przeniesienie większości aktywności transakcyjnej poza łańcuch i zapisanie tylko końcowego wyniku do głównego łańcucha, który działa jako końcowa warstwa rozliczeniowa. Pod względem filozofii technicznej jest to bliskie asynchronicznej architekturze Web2 - staraj się pozostawić ciężkie przetwarzanie transakcji na peryferiach, a główny łańcuch przeprowadza minimalną zaufaną weryfikację. Chociaż idea ta może być teoretycznie nieskończenie skalowalna, model zaufania, bezpieczeństwo funduszy i złożoność interakcji transakcji poza łańcuchem ograniczają jej zastosowanie. Na przykład, chociaż Lightning Network ma jasne pozycjonowanie scenariuszy finansowych, skala ekosystemu nigdy nie eksplodowała. Jednak wiele projektów opartych na sidechainach, takich jak Polygon POS, nie tylko ma wysoką przepustowość, ale także ujawnia wady trudnego dziedziczenia bezpieczeństwa głównego łańcucha. Trzeci typ trasy to najpopularniejsza i najczęściej wdrażana trasa zbiorcza warstwy 2. Ta metoda nie zmienia bezpośrednio samego głównego łańcucha, ale skaluje się poprzez mechanizm realizacji poza łańcuchem i weryfikacji on-chain. Optimistic Rollup i ZK Rollup mają swoje zalety: ten pierwszy jest szybki do wdrożenia i wysoce kompatybilny, ale ma problemy z opóźnieniem w okresie kwestionowania i mechanizmem odpornym na oszustwa; Ten ostatni ma silne zabezpieczenia i dobre możliwości kompresji danych, ale jest skomplikowany do opracowania i brakuje mu kompatybilności z EVM. Bez względu na to, jaki to jest rodzaj rollupu, jego istotą jest outsourcing mocy wykonawczej, przy jednoczesnym zachowaniu danych i weryfikacji w głównym łańcuchu, osiągając względną równowagę między decentralizacją a wysoką wydajnością. Szybki rozwój projektów takich jak Arbitrum, Optimism, zkSync i StarkNet dowodzi wykonalności tej ścieżki, ale ujawnia również średnioterminowe wąskie gardła, takie jak nadmierne poleganie na dostępności danych (DA), wysokie koszty i fragmentaryczne doświadczenie w programowaniu. Czwartym rodzajem trasy jest modułowa architektura blockchain, która pojawiła się w ostatnich latach, taka jak Celestia, Avail, EigenLayer itp. Paradygmat modułowy opowiada się za całkowitym oddzieleniem podstawowych funkcji blockchaina - wykonywania, konsensusu, dostępności danych i rozliczeń - przez wiele wyspecjalizowanych łańcuchów w celu wykonania różnych funkcji, a następnie połączenia ich w skalowalną sieć za pomocą protokołu cross-chain. Duży wpływ na ten kierunek ma modułowa architektura systemu operacyjnego oraz koncepcja komponowalności chmury obliczeniowej, która ma tę zaletę, że umożliwia elastyczną wymianę komponentów systemu i znacznie poprawia wydajność w określonych obszarach, takich jak DA. Jednak wyzwania są również bardzo oczywiste: koszt synchronizacji, weryfikacji i wzajemnego zaufania między systemami po oddzieleniu modułów jest niezwykle wysoki, ekosystem programistów jest niezwykle rozdrobniony, a wymagania dotyczące średnio- i długoterminowych standardów protokołów i bezpieczeństwa cross-chain są znacznie wyższe niż w przypadku tradycyjnego projektowania łańcuchów. W istocie, model ten nie buduje już "łańcucha", ale buduje "sieć łańcuchową", co stanowi bezprecedensowy próg dla ogólnego zrozumienia architektury, obsługi i utrzymania. Ostatnim typem trasy, na którym skupi się późniejsza analiza w tym artykule, jest wewnątrzłańcuchowa ścieżka optymalizacji obliczeń równoległych. W przeciwieństwie do pierwszych czterech typów "podziału poziomego", które przeprowadzają głównie "podział poziomy" z poziomu strukturalnego, obliczenia równoległe kładą nacisk na "ulepszenie pionowe", to znaczy jednoczesne przetwarzanie transakcji atomowych odbywa się poprzez zmianę architektury silnika wykonawczego w ramach jednego łańcucha. Wymaga to przepisania logiki planowania maszyn wirtualnych i wprowadzenia pełnego zestawu nowoczesnych mechanizmów planowania systemów komputerowych, takich jak analiza zależności transakcji, przewidywanie konfliktów stanów, kontrola równoległości i wywołania asynchroniczne. Solana jest pierwszym projektem, który implementuje koncepcję równoległej maszyny wirtualnej do systemu na poziomie łańcucha, który realizuje równoległe wykonywanie wielu rdzeni poprzez ocenę konfliktu transakcji w oparciu o model konta. Nowa generacja projektów, takich jak Monad, Sei, Fuel, MegaETH itp., próbuje dalej wprowadzać najnowocześniejsze pomysły, takie jak wykonywanie potoków, optymistyczna współbieżność, partycjonowanie pamięci masowej i równoległe rozprzęganie w celu zbudowania wysokowydajnych rdzeni wykonawczych podobnych do nowoczesnych procesorów. Główną zaletą tego kierunku jest to, że nie musi on polegać na architekturze wielołańcuchowej, aby osiągnąć przełom w limicie przepustowości, a jednocześnie zapewnia wystarczającą elastyczność obliczeniową do wykonywania złożonych inteligentnych kontraktów, co jest ważnym technicznym warunkiem wstępnym dla przyszłych scenariuszy zastosowań, takich jak AI Agent, gry łańcuchowe na dużą skalę i pochodne wysokiej częstotliwości. Patrząc na powyższe pięć typów ścieżek skalowania, podział, który za nimi stoi, to w rzeczywistości systematyczny kompromis między wydajnością, komponowalnością, bezpieczeństwem i złożonością rozwoju blockchaina. Rollup jest silny w outsourcingu konsensusu i bezpiecznym dziedziczeniu, modułowość podkreśla elastyczność strukturalną i ponowne wykorzystanie komponentów, skalowanie poza łańcuchem próbuje przebić się przez wąskie gardło głównego łańcucha, ale koszt zaufania jest wysoki, a równoległość wewnątrz łańcucha koncentruje się na fundamentalnym ulepszeniu warstwy wykonawczej, próbując zbliżyć się do granicy wydajności nowoczesnych systemów rozproszonych bez niszczenia spójności łańcucha. Niemożliwe jest, aby każda ze ścieżek rozwiązała wszystkie problemy, ale to właśnie te kierunki razem tworzą panoramę aktualizacji paradygmatu obliczeniowego Web3, a także zapewniają deweloperom, architektom i inwestorom niezwykle bogate opcje strategiczne. Tak jak system operacyjny przesunął się z jednordzeniowego na wielordzeniowy, a bazy danych ewoluowały od sekwencyjnych indeksów do jednoczesnych transakcji, ekspansja Web3 ostatecznie przesunie się w kierunku wysoce równoległej ery wykonawczej. W tej epoce wydajność nie jest już tylko wyścigiem prędkości łańcucha, ale kompleksowym ucieleśnieniem podstawowej filozofii projektowania, głębokiego zrozumienia architektury, współpracy oprogramowania i sprzętu oraz kontroli systemu. A równoległość wewnątrz łańcucha może być ostatecznym polem bitwy w tej długotrwałej wojnie. 3. Wykres klasyfikacji obliczeń równoległych: pięć ścieżek od konta do instrukcji W kontekście ciągłej ewolucji technologii skalowania blockchain, przetwarzanie równoległe stopniowo stało się główną ścieżką do przełomowych odkryć w zakresie wydajności. W odróżnieniu od poziomego rozprzęgania warstwy struktury, warstwy sieciowej lub warstwy dostępności danych, przetwarzanie równoległe to głębokie wydobycie w warstwie wykonawczej, które jest związane z najniższą logiką wydajności operacyjnej łańcucha bloków i określa szybkość odpowiedzi i zdolność przetwarzania systemu blockchain w obliczu wysokiej współbieżności i wielotypowych złożonych transakcji. Wychodząc od modelu wykonawczego i dokonując przeglądu rozwoju tej linii technologicznej, możemy uporządkować przejrzystą mapę klasyfikacyjną obliczeń równoległych, którą można z grubsza podzielić na pięć ścieżek technicznych: równoległość na poziomie konta, równoległość na poziomie obiektu, równoległość na poziomie transakcji, równoległość na poziomie maszyny wirtualnej i równoległość na poziomie instrukcji. Te pięć typów ścieżek, od gruboziarnistych do drobnoziarnistych, to nie tylko ciągły proces udoskonalania logiki równoległej, ale także ścieżka rosnącej złożoności systemu i trudności w planowaniu. Najwcześniejszym równoległym poziomem konta jest paradygmat reprezentowany przez Solana. Model ten opiera się na projekcie rozdzielenia konta i stanu i określa, czy istnieje relacja powodująca konflikt, poprzez statyczną analizę zestawu kont zaangażowanych w transakcję. Jeśli dwie transakcje uzyskują dostęp do zestawu kont, które nie nakładają się na siebie, mogą być wykonywane jednocześnie na wielu rdzeniach. Mechanizm ten jest idealny do radzenia sobie z dobrze ustrukturyzowanymi transakcjami z jasnymi danymi wejściowymi i wyjściowymi, szczególnie w przypadku programów o przewidywalnych ścieżkach, takich jak DeFi. Jednak jego naturalnym założeniem jest to, że dostęp do konta jest przewidywalny, a zależność od stanu można wywnioskować statycznie, co czyni go podatnym na konserwatywne wykonywanie i zmniejszoną równoległość w obliczu złożonych inteligentnych kontraktów (takich jak dynamiczne zachowania, takie jak gry łańcuchowe i agenci AI). Ponadto wzajemna zależność między rachunkami sprawia również, że równoległe zwroty są poważnie osłabione w niektórych scenariuszach handlu o wysokiej częstotliwości. Czas działania Solany jest wysoce zoptymalizowany pod tym względem, ale jego podstawowa strategia planowania jest nadal ograniczona przez stopień szczegółowości konta. Dalsze doprecyzowanie w oparciu o model konta, wchodzimy w techniczny poziom równoległości na poziomie obiektu. Równoległość na poziomie obiektu wprowadza semantyczną abstrakcję zasobów i modułów, z jednoczesnym planowaniem w bardziej szczegółowych jednostkach "obiektów stanu". Aptos i Sui są ważnymi badaczami w tym kierunku, zwłaszcza ten drugi, który definiuje własność i zmienność zasobów w czasie kompilacji za pomocą liniowego systemu typów języka Move, umożliwiając środowisku wykonawczemu precyzyjną kontrolę konfliktów dostępu do zasobów. W porównaniu z równoległością na poziomie konta ta metoda jest bardziej wszechstronna i skalowalna, może obejmować bardziej złożoną logikę odczytu i zapisu stanu oraz naturalnie obsługuje wysoce heterogeniczne scenariusze, takie jak gry, sieci społecznościowe i sztuczna inteligencja. Jednak równoległość na poziomie obiektu wprowadza również większe bariery językowe i złożoność programowania, a Move nie jest bezpośrednim zamiennikiem Solidity, a wysoki koszt ekologicznego przełączania ogranicza popularność jego równoległego paradygmatu. Dalszy równoległość na poziomie transakcji to kierunek, w którym podąża nowa generacja wysokowydajnych łańcuchów reprezentowanych przez Monad, Sei i Fuel. Zamiast traktować stany lub konta jako najmniejszą jednostkę równoległości, ścieżka jest budowana wokół wykresu zależności wokół całej transakcji. Traktuje transakcje jako niepodzielne jednostki operacji, tworzy wykresy transakcji (grupy DAG transakcji) za pomocą analizy statycznej lub dynamicznej i opiera się na harmonogramach do współbieżnego wykonywania przepływów. Taka konstrukcja pozwala systemowi zmaksymalizować równoległość wydobycia bez konieczności pełnego zrozumienia podstawowej struktury stanu. Monad jest szczególnie przyciągający wzrok, łącząc nowoczesne technologie silnika bazy danych, takie jak Optimistic Concurrency Control (OCC), równoległe planowanie potoków i wykonywanie poza kolejnością, zbliżając wykonywanie łańcucha do paradygmatu "harmonogramu GPU". W praktyce mechanizm ten wymaga niezwykle złożonych menedżerów zależności i detektorów konfliktów, a wąskim gardłem może stać się również sam scheduler, ale jego potencjalna przepustowość jest znacznie wyższa niż modelu konta czy obiektu, co czyni go najbardziej teoretyczną siłą w obecnej ścieżce obliczeń równoległych. Z drugiej strony równoległość na poziomie maszyny wirtualnej osadza możliwości współbieżnego wykonywania bezpośrednio w podstawowej logice planowania instrukcji maszyny wirtualnej, dążąc do całkowitego przełamania nieodłącznych ograniczeń wykonywania sekwencji EVM. Jako "eksperyment z super maszyną wirtualną" w ekosystemie Ethereum, MegaETH próbuje przeprojektować EVM, aby obsługiwał wielowątkowe jednoczesne wykonywanie kodu inteligentnych kontraktów. Warstwa podstawowa umożliwia każdemu kontraktowi niezależne uruchamianie w różnych kontekstach wykonywania za pomocą mechanizmów, takich jak wykonywanie segmentowane, segmentacja stanu i wywołanie asynchroniczne, a także zapewnia ostateczną spójność za pomocą warstwy synchronizacji równoległej. Najtrudniejszą częścią tego podejścia jest to, że musi ono być w pełni kompatybilne z istniejącą semantyką zachowań EVM, a jednocześnie przekształcać całe środowisko wykonawcze i mechanizm gazowy, aby płynnie migrować ekosystem Solidity do równoległego frameworka. Wyzwaniem jest nie tylko głębokość stosu technologicznego, ale także akceptacja znaczących zmian w strukturze politycznej L1 Ethereum. Ale jeśli się powiedzie, MegaETH zapowiada się na "rewolucję procesorów wielordzeniowych" w przestrzeni EVM. Ostatnim typem ścieżki jest równoległość na poziomie instrukcji, która jest najbardziej szczegółowa i ma najwyższy próg techniczny. Pomysł wywodzi się z potoków wykonywania i instrukcji po zakończeniu w nowoczesnej konstrukcji procesora. Paradygmat ten twierdzi, że ponieważ każdy inteligentny kontrakt jest ostatecznie kompilowany do instrukcji kodu bajtowego, całkowicie możliwe jest zaplanowanie i przeanalizowanie każdej operacji oraz równoległe przegrupowanie jej w taki sam sposób, w jaki procesor wykonuje zestaw instrukcji x86. Zespół Fuel początkowo wprowadził w swoim FuelVM model wykonywania na poziomie instrukcji, a w dłuższej perspektywie, gdy silnik wykonawczy blockchain zaimplementuje predykcyjne wykonywanie i dynamiczne przegrupowanie zależnych od instrukcji, jego równoległość osiągnie teoretyczny limit. Takie podejście może nawet przenieść wspólne projektowanie blockchain-hardware na zupełnie nowy poziom, czyniąc łańcuch prawdziwym "zdecentralizowanym komputerem", a nie tylko "rozproszoną księgą". Oczywiście ta ścieżka jest jeszcze w fazie teoretycznej i eksperymentalnej, a odpowiednie schedulery i mechanizmy weryfikacji bezpieczeństwa nie są jeszcze dojrzałe, ale wskazują na ostateczną granicę przyszłości obliczeń równoległych. Podsumowując, pięć ścieżek konta, obiektu, transakcji, maszyny wirtualnej i instrukcji stanowi spektrum rozwoju wewnątrzłańcuchowych obliczeń równoległych, od statycznej struktury danych po dynamiczny mechanizm planowania, od przewidywania dostępu do stanu po reorganizację na poziomie instrukcji, każdy krok technologii równoległej oznacza znaczny wzrost złożoności systemu i progu rozwoju. Ale jednocześnie oznaczają one również zmianę paradygmatu w modelu obliczeniowym blockchain, od tradycyjnego rejestru konsensusu pełnej sekwencji do wysokowydajnego, przewidywalnego i dyspozycyjnego rozproszonego środowiska wykonawczego. Jest to nie tylko nadrobienie zaległości w zakresie wydajności przetwarzania w chmurze Web2, ale także głęboka koncepcja ostatecznej formy "komputera blockchain". Wybór równoległych ścieżek dla różnych łańcuchów publicznych określi również limit nośny ich przyszłych ekosystemów aplikacji, a także ich podstawową konkurencyjność w scenariuszach takich jak AI Agent, gry łańcuchowe i handel on-chain o wysokiej częstotliwości. Po czwarte, wyjaśnione są dwie główne ścieżki: Monad vs MegaETH Spośród wielu ścieżek ewolucji obliczeń równoległych, dwie główne ścieżki techniczne o największym skupieniu, najwyższym głosie i najbardziej kompletnej narracji na obecnym rynku to bez wątpienia "budowanie równoległego łańcucha obliczeniowego od podstaw" reprezentowane przez Monad oraz "równoległa rewolucja w EVM" reprezentowana przez MegaETH. Te dwa są nie tylko najbardziej intensywnymi kierunkami badawczo-rozwojowymi dla obecnych prymitywnych inżynierów kryptograficznych, ale także najbardziej decydującymi symbolami biegunowymi w obecnym wyścigu wydajności komputerów Web3. Różnica między nimi polega nie tylko na punkcie wyjścia i stylu architektury technicznej, ale także na obiektach ekologicznych, którym służą, kosztach migracji, filozofii realizacji i przyszłej ścieżce strategicznej, która za nimi stoi. Reprezentują one równoległą konkurencję paradygmatu między "rekonstrukcjonizmem" a "kompatybilnizmem" i głęboko wpłynęły na wyobrażenia rynku o ostatecznej formie łańcuchów o wysokiej wydajności. Monad jest na wskroś "fundamentalistą obliczeniowym", a jego filozofia projektowania nie jest zaprojektowana tak, aby była kompatybilna z istniejącymi EVM, ale raczej aby na nowo zdefiniować sposób, w jaki silniki wykonawcze blockchain działają pod maską, czerpiąc inspirację z nowoczesnych baz danych i wysokowydajnych systemów wielordzeniowych. Jego podstawowy system technologiczny opiera się na dojrzałych mechanizmach w dziedzinie baz danych, takich jak optymistyczna kontrola współbieżności, planowanie transakcji DAG, wykonywanie poza kolejnością i wykonywanie potokowe, mające na celu zwiększenie wydajności przetwarzania transakcji w łańcuchu do rzędu milionów TPS. W architekturze Monad wykonywanie i porządkowanie transakcji jest całkowicie rozłączone, a system najpierw buduje wykres zależności transakcji, a następnie przekazuje go do harmonogramu w celu równoległego wykonania. Wszystkie transakcje są traktowane jako niepodzielne jednostki transakcji, z jawnymi zestawami odczytu i zapisu oraz migawkami stanu, a harmonogramy są wykonywane optymistycznie na podstawie wykresów zależności, wycofując się i ponownie wykonując, gdy wystąpią konflikty. Mechanizm ten jest niezwykle złożony pod względem implementacji technicznej, wymagający budowy stosu wykonawczego podobnego do tego, jaki posiada nowoczesny menedżer transakcji bazy danych, a także wprowadzenia mechanizmów takich jak buforowanie wielopoziomowe, pobieranie z wyprzedzeniem, walidacja równoległa itp., w celu kompresji opóźnienia zatwierdzenia stanu końcowego, ale teoretycznie może przesunąć granicę przepustowości do wysokości, których nie wyobraża sobie obecny łańcuch. Co ważniejsze, Monad nie zrezygnował z interoperacyjności z EVM. Wykorzystuje warstwę pośrednią podobną do "Solidity-Compatible Intermediate Language", aby wspierać programistów w pisaniu kontraktów w składni Solidity, a jednocześnie przeprowadzać optymalizację języka pośredniego i planowanie równoległości w silniku wykonawczym. Ta strategia projektowania polegająca na "kompatybilności powierzchniowej i refaktoryzacji dna" nie tylko zachowuje przyjazność ekologicznych deweloperów Ethereum, ale także w największym stopniu uwalnia podstawowy potencjał wykonawczy, co jest typową strategią techniczną polegającą na "połykaniu EVM, a następnie jego dekonstrukcji". Oznacza to również, że po uruchomieniu Monad stanie się nie tylko suwerennym łańcuchem o ekstremalnej wydajności, ale także idealną warstwą wykonawczą dla sieci rollupowych warstwy 2, a nawet "podłączanym rdzeniem o wysokiej wydajności" dla innych modułów wykonawczych łańcucha w dłuższej perspektywie. Z tego punktu widzenia Monad to nie tylko droga techniczna, ale także nowa logika projektowania suwerenności systemu, która opowiada się za "modularyzacją, wydajnością i możliwością ponownego wykorzystania" warstwy wykonawczej, aby stworzyć nowy standard dla międzyłańcuchowego przetwarzania zespołowego. W przeciwieństwie do stanowiska Monada w sprawie "nowego budowniczego świata", MegaETH jest zupełnie odwrotnym typem projektu, który decyduje się na start od istniejącego świata Ethereum i osiągnięcie znacznego wzrostu wydajności realizacji przy minimalnych kosztach zmian. MegaETH nie wywraca do góry nogami specyfikacji EVM, ale raczej stara się wbudować moc obliczeń równoległych w silnik wykonawczy istniejącego EVM, tworząc przyszłą wersję "wielordzeniowego EVM". Uzasadnieniem jest całkowita refaktoryzacja obecnego modelu wykonywania instrukcji EVM z takimi możliwościami, jak izolacja na poziomie wątku, asynchroniczne wykonywanie na poziomie kontraktu i wykrywanie konfliktów dostępu do stanu, co pozwala wielu inteligentnym kontraktom działać jednocześnie w tym samym bloku i ostatecznie scalać zmiany stanu. Model ten wymaga od programistów osiągnięcia znacznego wzrostu wydajności z tego samego kontraktu wdrożonego w łańcuchu MegaETH bez zmiany istniejących kontraktów Solidity, przy użyciu nowych języków lub łańcuchów narzędzi. Ta ścieżka "konserwatywnej rewolucji" jest niezwykle atrakcyjna, szczególnie dla ekosystemu Ethereum L2, ponieważ stanowi idealną ścieżkę do bezbolesnych ulepszeń wydajności bez konieczności migracji składni. Główny przełom w MegaETH polega na wielowątkowym mechanizmie planowania maszyn wirtualnych. Tradycyjne EVM wykorzystują stosowy, jednowątkowy model wykonywania, w którym każda instrukcja jest wykonywana liniowo, a aktualizacje stanu muszą odbywać się synchronicznie. MegaETH przełamuje ten wzorzec i wprowadza asynchroniczny stos wywołań i mechanizm izolacji kontekstu wykonywania, tak aby osiągnąć jednoczesne wykonywanie "współbieżnych kontekstów EVM". Każdy kontrakt może wywoływać własną logikę w osobnym wątku, a wszystkie wątki będą jednolicie wykrywać i zbieżne stan za pośrednictwem równoległej warstwy zatwierdzania, gdy stan zostanie ostatecznie przesłany. Mechanizm ten jest bardzo podobny do wielowątkowego modelu JavaScript nowoczesnych przeglądarek (Web Workers + Shared Memory + Lock-Free Data), który zachowuje determinizm zachowania głównego wątku i wprowadza wysokowydajny mechanizm planowania, który jest asynchroniczny w tle. W praktyce projekt ten jest również niezwykle przyjazny dla budowniczych bloków i wyszukiwarek, a także może optymalizować sortowanie Mempool i ścieżki przechwytywania MEV zgodnie ze strategiami równoległymi, tworząc zamkniętą pętlę korzyści ekonomicznych w warstwie wykonawczej. Co ważniejsze, MegaETH decyduje się na głębokie powiązanie z ekosystemem Ethereum, a jego głównym miejscem lądowania w przyszłości będzie prawdopodobnie sieć EVM L2 Rollup, taka jak łańcuch Optimism, Base lub Arbitrum Orbit. Po przyjęciu na dużą skalę, może osiągnąć prawie 100-krotną poprawę wydajności w stosunku do istniejącego stosu technologicznego Ethereum bez zmiany semantyki kontraktów, modelu stanu, logiki gazu, metod wywoływania itp., co czyni go atrakcyjnym kierunkiem modernizacji technologii dla konserwatystów EVM. Paradygmat MegaETH jest następujący: tak długo, jak nadal robisz rzeczy na Ethereum, pozwolę, aby Twoja wydajność obliczeniowa gwałtownie wzrosła. Z punktu widzenia realizmu i inżynierii jest łatwiejszy do wdrożenia niż Monad i jest bardziej zgodny z iteracyjną ścieżką głównych projektów DeFi i NFT, co czyni go kandydatem do wsparcia ekologicznego w perspektywie krótkoterminowej. W pewnym sensie dwie trasy Monad i MegaETH to nie tylko dwie implementacje równoległych ścieżek technologicznych, ale także klasyczna konfrontacja między "refaktoryzacją" a "kompatybilnością" na ścieżce rozwoju blockchain: pierwsza z nich dąży do przełomu w paradygmacie i rekonstruuje całą logikę od maszyn wirtualnych po leżące u podstaw zarządzanie stanem, aby osiągnąć najwyższą wydajność i plastyczność architektoniczną; Ten ostatni dąży do stopniowej optymalizacji, popychając tradycyjne systemy do granic możliwości, jednocześnie respektując istniejące ograniczenia ekologiczne, minimalizując w ten sposób koszty migracji. Nie ma między nimi absolutnych zalet ani wad, ale służą one różnym grupom programistów i wizjom ekosystemu. Monad jest bardziej odpowiedni do budowania nowych systemów od podstaw, gier łańcuchowych, które dążą do ekstremalnej przepustowości, agentów AI i modułowych łańcuchów wykonawczych. Z drugiej strony MegaETH jest bardziej odpowiedni dla projektów L2, projektów DeFi i protokołów infrastrukturalnych, które chcą osiągnąć wzrost wydajności przy minimalnych zmianach w rozwoju. Są jak pociągi dużych prędkości na nowym torze, przedefiniowane z toru, sieci energetycznej na karoserię, tylko po to, aby osiągnąć niespotykaną prędkość i doświadczenie; Innym przykładem jest instalowanie turbin na istniejących autostradach, poprawa harmonogramu pasów ruchu i konstrukcji silnika, dzięki czemu pojazdy mogą jechać szybciej bez opuszczania znanej sieci drogowej. Oba mogą skończyć się w ten sam sposób: w następnej fazie modułowych architektur blockchain, Monad może stać się modułem "egzekucji jako usługi" dla Rollupów, a MegaETH może stać się wtyczką przyspieszającą wydajność dla głównych L2. Te dwa elementy mogą ostatecznie się zjednoczyć, tworząc dwa skrzydła wysokowydajnego silnika wykonawczego rozproszonego w przyszłym świecie Web3. 5. Przyszłe możliwości i wyzwania związane z obliczeniami równoległymi W miarę jak przetwarzanie równoległe przechodzi od projektowania opartego na dokumentach papierowych do wdrażania on-chain, potencjał, który odblokowuje, staje się coraz bardziej konkretny i mierzalny. Z jednej strony zaobserwowaliśmy, że nowe paradygmaty rozwoju i modele biznesowe zaczęły na nowo definiować "wydajność on-chain": bardziej złożona logika gier łańcuchowych, bardziej realistyczny cykl życia agenta AI, więcej protokołu wymiany danych w czasie rzeczywistym, bardziej wciągające interaktywne doświadczenie, a nawet system operacyjny Super App oparty na współpracy on-chain zmieniają się z "czy możemy to zrobić" na "jak dobrze możemy to zrobić". Z drugiej strony, tym, co naprawdę napędza przejście na przetwarzanie równoległe, jest nie tylko liniowa poprawa wydajności systemu, ale także strukturalna zmiana granic poznawczych programistów i kosztów migracji ekologicznej. Tak jak wprowadzenie przez Ethereum mechanizmu kontraktów Turing-complete dało początek wielowymiarowej eksplozji DeFi, NFT i DAO, tak "asynchroniczna rekonstrukcja między stanem a instrukcją" spowodowana przez obliczenia równoległe rodzi również nowy model świata on-chain, który jest nie tylko rewolucją w wydajności wykonania, ale także wylęgarnią innowacji w zakresie rozszczepienia w strukturze produktu. Przede wszystkim, z perspektywy możliwości, najbardziej bezpośrednią korzyścią jest "podniesienie pułapu aplikacji". Większość obecnych aplikacji DeFi, gier i aplikacji społecznościowych jest ograniczona przez wąskie gardła stanowe, koszty gazu i opóźnienia i nie może naprawdę przenosić interakcji o wysokiej częstotliwości w łańcuchu na dużą skalę. Biorąc za przykład gry łańcuchowe, GameFi z rzeczywistym sprzężeniem zwrotnym ruchu, synchronizacją zachowań o wysokiej częstotliwości i logiką walki w czasie rzeczywistym prawie nie istnieje, ponieważ liniowe wykonanie tradycyjnego EVM nie może obsługiwać transmisyjnego potwierdzania dziesiątek zmian stanu na sekundę. Dzięki wsparciu obliczeń równoległych, poprzez mechanizmy takie jak DAG transakcyjne i konteksty asynchroniczne na poziomie kontraktu, można konstruować łańcuchy o wysokiej współbieżności, a deterministyczne wyniki wykonywania można zagwarantować poprzez spójność migawek, aby osiągnąć strukturalny przełom w "silniku gier on-chain". Podobnie, wdrażanie i obsługa agentów AI również zostanie znacznie ulepszone dzięki przetwarzaniu równoległemu. W przeszłości mieliśmy tendencję do uruchamiania agentów AI poza łańcuchem i przesyłania wyników ich zachowań tylko do kontraktów on-chain, ale w przyszłości on-chain może obsługiwać asynchroniczną współpracę i udostępnianie stanów między wieloma podmiotami AI poprzez równoległe planowanie transakcji, aby naprawdę zrealizować autonomiczną logikę agenta w łańcuchu w czasie rzeczywistym. Obliczenia równoległe będą infrastrukturą dla tego "kontraktu opartego na zachowaniu", napędzając Web3 z "transakcji jako aktywa" do nowego świata "interakcji jako agenta". Po drugie, łańcuch narzędzi programistycznych i warstwa abstrakcji maszyn wirtualnych również zostały strukturalnie przekształcone ze względu na równoległość. Tradycyjny paradygmat rozwoju Solidity opiera się na modelu myślenia szeregowego, w którym programiści są przyzwyczajeni do projektowania logiki jako jednowątkowej zmiany stanu, ale w architekturach obliczeń równoległych programiści będą zmuszeni do myślenia o konfliktach zestawów odczytu/zapisu, zasadach izolacji stanu, nieotomności transakcji, a nawet wprowadzaniu wzorców architektonicznych opartych na kolejkach komunikatów lub potokach stanów. Ten skok w strukturze kognitywnej doprowadził również do szybkiego rozwoju nowej generacji łańcuchów narzędziowych. Na przykład równoległe ramy inteligentnych kontraktów, które obsługują deklaracje zależności transakcyjnych, kompilatory optymalizacyjne oparte na IR i współbieżne debuggery, które obsługują symulację migawek transakcji, staną się siedliskiem eksplozji infrastruktury w nowym cyklu. Jednocześnie ciągła ewolucja modułowych blockchainów przyniosła również doskonałą ścieżkę docelową dla obliczeń równoległych: Monad może zostać wstawiona do L2 Rollup jako moduł wykonawczy, MegaETH może być wdrożony jako zamiennik EVM dla głównych łańcuchów, Celestia zapewnia obsługę warstwy dostępności danych, a EigenLayer zapewnia zdecentralizowaną sieć walidatorów, tworząc w ten sposób wysokowydajną zintegrowaną architekturę od danych bazowych do logiki wykonania. Jednak postęp w dziedzinie obliczeń równoległych nie jest łatwą drogą, a wyzwania są jeszcze bardziej strukturalne i trudne do pokonania niż możliwości. Z jednej strony podstawowe trudności techniczne leżą w "gwarancji spójności współbieżności stanów" i "strategii radzenia sobie z konfliktami transakcji". W przeciwieństwie do baz danych poza łańcuchem, on-chain nie może tolerować arbitralnego stopnia wycofywania transakcji lub wycofywania stanu, a wszelkie konflikty wykonania muszą być modelowane z wyprzedzeniem lub precyzyjnie kontrolowane podczas zdarzenia. Oznacza to, że harmonogram równoległy musi mieć silne możliwości konstruowania wykresów zależności i przewidywania konfliktów, a jednocześnie zaprojektować wydajny mechanizm odporności na błędy wykonania optymistycznego, w przeciwnym razie system jest podatny na "burzę ponawiania prób jednoczesnych awarii" pod dużym obciążeniem, które nie tylko wzrasta, ale maleje, a nawet powoduje niestabilność łańcucha. Co więcej, obecny model bezpieczeństwa wielowątkowego środowiska wykonawczego nie został jeszcze w pełni ustalony, taki jak precyzja mechanizmu izolacji stanów między wątkami, nowe wykorzystanie ataków re-entrancy w kontekstach asynchronicznych oraz eksplozja gazu w krzyżowych wywołaniach kontraktów, z których wszystkie są nowymi problemami, które należy rozwiązać. Bardziej podstępne wyzwania wynikają z aspektów ekologicznych i psychologicznych. To, czy programiści są skłonni do migracji do nowego paradygmatu, czy są w stanie opanować metody projektowania modeli równoległych i czy są skłonni zrezygnować z części czytelności i audytowalności kontraktowej na rzecz korzyści w zakresie wydajności, jest kluczem do tego, czy obliczenia równoległe mogą tworzyć potencjalną energię ekologiczną. W ciągu ostatnich kilku lat widzieliśmy, jak wiele łańcuchów o doskonałej wydajności, ale pozbawionych wsparcia programistów, stopniowo milknie, takich jak NEAR, Avalanche, a nawet niektóre łańcuchy Cosmos SDK o znacznie lepszej wydajności niż EVM, a ich doświadczenie przypomina nam, że bez programistów nie ma ekosystemu; Bez ekologii, bez względu na to, jak dobre są osiągi, jest to po prostu zamek w powietrzu. W związku z tym projekty obliczeń równoległych powinny nie tylko tworzyć najsilniejszy silnik, ale także najłagodniejszą ścieżkę przejścia ekologicznego, tak aby "wydajność była gotowa do użycia", a nie "wydajność była progiem poznawczym". Ostatecznie przyszłość obliczeń równoległych jest zarówno triumfem inżynierii systemów, jak i testem dla ekoprojektowania. Zmusi nas to do ponownego zastanowienia się nad tym, "co jest istotą łańcucha": czy jest to zdecentralizowana maszyna rozliczeniowa, czy globalnie rozproszony koordynator stanu w czasie rzeczywistym? Jeśli tak jest w drugim przypadku, to możliwości przepustowości stanu, współbieżności transakcji i responsywności kontraktów, które wcześniej były uważane za "szczegóły techniczne łańcucha", ostatecznie staną się podstawowymi wskaźnikami definiującymi wartość łańcucha. Paradygmat obliczeń równoległych, który naprawdę zakończy tę transformację, stanie się również najbardziej podstawowym i najbardziej złożonym prymitywem infrastruktury w tym nowym cyklu, a jego wpływ będzie wykraczał daleko poza moduł techniczny i może stanowić punkt zwrotny w ogólnym paradygmacie obliczeniowym Web3. 6. Wniosek: Czy przetwarzanie równoległe jest najlepszą ścieżką do natywnej ekspansji Web3? Spośród wszystkich ścieżek, które badają granice wydajności Web3, przetwarzanie równoległe nie jest najłatwiejsze do wdrożenia, ale może być najbliższe istocie blockchaina. Nie migruje poza łańcuch, ani nie poświęca decentralizacji w zamian za przepustowość, ale stara się zrekonstruować sam model wykonawczy w atomowości i determinizmie łańcucha, od warstwy transakcji, warstwy kontraktów i warstwy maszyn wirtualnych do źródła wąskiego gardła wydajności. Ta "natywna dla łańcucha" metoda skalowania nie tylko zachowuje podstawowy model zaufania blockchaina, ale także rezerwuje zrównoważoną glebę wydajności dla bardziej złożonych aplikacji on-chain w przyszłości. Jego trudność tkwi w strukturze, a jego urok tkwi w strukturze. Jeśli refaktoryzacja modułowa jest "architekturą łańcucha", to refaktoryzacja obliczeń równoległych jest "duszą łańcucha". Być może nie jest to droga na skróty do odprawy celnej, ale prawdopodobnie będzie to jedyne trwałe pozytywne rozwiązanie w długoterminowej ewolucji Web3. Jesteśmy świadkami przejścia architektury od procesorów jednordzeniowych do wielordzeniowych/wielowątkowych systemów operacyjnych, a pojawienie się natywnych dla Web3 systemów operacyjnych może być ukryte w tych równoległych eksperymentach w łańcuchu.
Pokaż oryginał
122,37 tys.
1
charker 📱
charker 📱
Nie mogę uwierzyć, że Satoshi wciąż ma wszystkie swoje BCH i BSV. Dosłowne diamentowe wskazówki.
Pokaż oryginał
11,5 tys.
16
CoinDesk
CoinDesk
Platforma handlowa eToro (ETOR) rozszerzyła swoją ofertę kryptowalut w USA, dodając 12 nowych aktywów cyfrowych, w tym Dogecoin DOGE, Cardano ADA i XRP XRP, podała firma w środę. Dodatki zwiększają całkowitą liczbę kryptowalut dostępnych dla użytkowników w USA do 15. Nowe tokeny obejmują również Aave AAVE, Chainlink LINK, Compound COMP, Ethereum Classic ETC, Litecoin LTC, Uniswap UNI, Stellar XLM, Shiba Inu SHIB i Yearn Finance YFI. Wcześniej użytkownicy z USA mogli handlować na platformie tylko Bitcoin BTC, Bitcoin Cash BCH i Ethereum ETH. Posunięcie to jest częścią dążenia eToro do poszerzenia swojego śladu na rynku amerykańskim oraz zaspokojenia popytu detalicznego i dopasowania ofert od większych graczy, takich jak Coinbase (COIN) i Robinhood (HOOD). Ogłoszenie pojawiło się zaledwie kilka tygodni po tym, jak eToro zadebiutowało publicznie na Nasdaq, co oznacza, że jest to pierwsza amerykańska firma kryptowalutowa, która weszła na giełdę po miesiącach napięć handlowych i chwiejnych rynków. Emitent stablecoinów Circle, który od dawna planował wejść na giełdę, złożył we wtorek wniosek o pierwszą ofertę publiczną. Pomimo burzliwego otoczenia makroekonomicznego, IPO eToro zostało dobrze przyjęte. Firma zebrała około 310 milionów dolarów, przekraczając oczekiwania i sygnalizując zainteresowanie inwestorów połączonym modelem platformy handlu akcjami i kryptowalutami. Akcje są nieznacznie niższe w środę na poziomie 64,15 USD, ale pozostają ładnie powyżej ceny IPO wynoszącej 52 USD. Zastrzeżenie: Części tego artykułu zostały wygenerowane przy pomocy narzędzi AI i sprawdzone przez nasz zespół redakcyjny w celu zapewnienia dokładności i zgodności z naszymi standardami. Aby uzyskać więcej informacji, zapoznaj się z pełną polityką CoinDesk dotyczącą sztucznej inteligencji.
Pokaż oryginał
534,99 tys.
3

Kalkulator BCH

USDUSD
BCHBCH

Wydajność ceny Bitcoin Cash w USD

Obecna cena Bitcoin Cash wynosi $405,30. W ciągu ostatnich 24 godzin Bitcoin Cash ma zmniejszony przez -2,88%. Obecnie ma podaż w obiegu 19 877 684 BCH i maksymalną podaż w wysokości 21 000 000 BCH, co daje jej w pełni rozwodnioną kapitalizację rynkową w wysokości $8,06B. Obecnie moneta Bitcoin Cash zajmuje 16 pozycję w rankingach kapitalizacji rynkowej. Cena Bitcoin Cash/USD jest aktualizowana w czasie rzeczywistym.
Dzisiaj
-$12,0000
-2,88%
7 dni
-$7,6000
-1,85%
30 dni
+$25,9000
+6,82%
3 miesiące
+$84,1000
+26,18%

Informacje Bitcoin Cash (BCH)

3.6/5
CyberScope
4.4
16.04.2025
TokenInsight
2.7
08.11.2024
Podana ocena jest zagregowaną oceną zebraną przez OKX z podanych źródeł i służy wyłącznie celom informacyjnym. OKX nie gwarantuje jakości ani dokładności ratingów. Nie ma on na celu zapewnienia (i) porady inwestycyjnej lub rekomendacji; (ii) oferty lub zachęty do kupna, sprzedaży lub posiadania aktywów cyfrowych; lub (iii) porady finansowej, księgowej, prawnej lub podatkowej. Aktywa cyfrowe, w tym stablecoiny i NFT, wiążą się z wysokim stopniem ryzyka, mogą podlegać znacznym wahaniom, a nawet stać się bezwartościowe. Cena i wydajność aktywów cyfrowych nie są gwarantowane i mogą ulec zmianie bez powiadomienia. Twoje aktywa cyfrowe nie są objęte ubezpieczeniem od potencjalnych strat. Historyczne zwroty nie wskazują na przyszłe zwroty. OKX nie gwarantuje żadnego zwrotu, spłaty kapitału ani odsetek. OKX nie udziela rekomendacji dotyczących inwestycji lub aktywów. Dokładnie rozważ, czy handel lub posiadanie aktywów cyfrowych jest dla Ciebie odpowiednie w świetle Twojej sytuacji finansowej. W przypadku pytań dotyczących konkretnej sytuacji należy skonsultować się ze specjalistą ds. prawnych/podatkowych/inwestycyjnych.
Pokaż więcej
  • Oficjalna strona internetowa
  • Biała księga
  • Github
  • Eksplorator bloków
  • Informacje o stronach internetowych stron trzecich
    Informacje o stronach internetowych stron trzecich
    Korzystając z witryny internetowej strony trzeciej („TPW”), użytkownik akceptuje fakt, że wszelkie korzystanie z TPW podlega warunkom TPW i jest regulowane przez te warunki. O ile nie zostało to wyraźnie określone na piśmie, OKX i jej podmioty stowarzyszone („OKX”) nie jest w żaden sposób powiązana z właścicielem lub operatorem TPW. Użytkownik zgadza się, że OKX nie ponosi odpowiedzialności za jakiekolwiek straty, szkody i inne konsekwencje wynikające z korzystania z TPW. Należy pamiętać, że korzystanie z TPW może spowodować utratę lub zmniejszenie aktywów.

Bitcoin Cash (BCH) to sieć płatności kryptowalutowych stworzona w celu wdrożenia podstawowej koncepcji Bitcoin w celu ułatwieniapłatności peer-to-peerdla codziennych transakcji, zamiast stać się preferowanymprzechowywanie wartości, takiej jak Bitcoin (BTC).

Pomimo tego, że jest to złoty standard świata kryptowalut, Bitcoin ma pewne nieodłączne problemy, które są szeroko omawiane w domenie publicznej. Jego ograniczony rozmiar bloku 1 MB jest najbardziej znany, co czyni go nieskalowalnym. Ta luka spowodowała znaczący wzrost opłat transakcyjnych Bitcoin.

Sekcja uczestników sieci Bitcoin była nastawiona na większe bloki już w 2010 roku. Jednak nie mając żadnych wyników z ich wysiłków, ta grupa wybudowała Bitcoin Cash z blockchaina Bitcoin 1 sierpnia 2017 roku. Bitcoin Cash została uruchomiona z limitem rozmiaru bloku 8 MB, a następnie rozszerzyła się do 32 MB w 2018 roku.

Głównym celem Bitcoin Cash jest realizacja oryginalnego celu Bitcoin. Jego zespół stale dąży do tego, aby BCH był tańszym, szybszym, skalowalnym i łatwym w użyciu elektronicznym systemem gotówkowym peer-to-peer. Nie powstrzymuje się również w kwestii zwiększania wielkości bloków ani wprowadzania innych aktualizacji, aby projekt był dobrze dostosowany do jego głównego celu. Bitcoin Cash działa jak Bitcoin, ponieważ może być łatwo przelewany z jednej osoby do drugiej bez pośredników finansowych ani cenzury.

Właściciele tokenów BCH mogąwysyłaj i odbieraj BCH za pośrednictwem ich cyfrowych portfeliprzy użyciu unikalnych kluczy publicznych powiązanych z tym ostatnim. W rezultacie transakcje BCH są rozliczane niemal natychmiast i wiążą się z niższą średnią opłatą za przelew. Niektóre znane firmy, które akceptują swoje towary i usługi Bitcoin Cash, to Twitch, Newegg, CyberGhost VPN, SlingTV, Namecheap, airBaltic, ALFAtop, Menufy, SatoshiDice, CoinRamitter i eGifter.

Jak działa BCH?

Prace Bitcoin Cash są dość podobne do działania Bitcoin. Podstawową różnicą jest większy rozmiar bloku, umożliwiający wyższe prędkości transakcji i niższe opłaty. Niemniej jednak większe wielkości bloków sprawiają, że audyt i przechowywanie kosztują i prowadzą do trudności z pobraniem kopii blockchaina.

Podobnie jak Bitcoin, Bitcoin Cash również wykorzystujeModel konsensusu Proof of Work (PoW)za zabezpieczenie swojej sieci. Podmioty zwane wydobywcami rywalizują ze sobą, aby przetwarzać transakcje i dodawać nowe bloki do blockchaina Bitcoin Cash. W tym celu wykorzystują złożone urządzenia obliczeniowe.algorytm haszowania Bitcoin Cashto SHA-256, taki sam jak bitcoin.

Jednym z największych różnicieli między Bitcoin i Bitcoin Cash jest „dostosowanie trudności” w zakresie kopania nowych bloków. Podczas gdy oprogramowanie Bitcoin dostosowuje tę trudność do uwzględniania każdych 2016 bloków, odbywa się to co 10 minut w Bitcoin Cash.

Częste aktualizacje mają na celu zapewnienie wyraźniejszej wiedzy na temat wymaganej mocy obliczeniowej do kopania BCH. Wydobywcy Bitcoin Cash otrzymują nagrody w postaci nowych coinów BCH i opłat transakcyjnych za swoje wysiłki w zakresie dodawania bloków. Bitcoin Cash obsługuje również inteligentne kontrakty, umożliwiająctworzenie zdecentralizowanych aplikacji (DApp)na swoim blockchainie. Znane aplikacje DApp zbudowane na Bitcoin Cash obejmują CashFusion, CashScript, eeldBCH, Flipstarter, AnyHedge, Libauth, Spedn i Fountainhead.

Bitcoin Cash ma zdecentralizowaną, tanią, o wysokiej przepustowości, łatwą w użyciu sieć dla transakcji BCH. Wszelkie zmiany wymagane w jego sieci głównej obejmują wiele węzłów i wysoki poziom konsensusu. Ogranicza to procesy prób i błędów, które są niezbędne dla innowacji.

Uruchomiony w lipcu 2021 roku, Smart Bitcoin Cash lub SmartBCH to łańcuch boczny Bitcoin Cash stworzony w celu zbadania nowych pomysłów i odblokowania nowych możliwości. Jest kompatybilny zWeb3 APIi EVM Ethereum, oferując wysoką przepustowość dla aplikacji DApp, w bezpiecznym, zdecentralizowanym i szybkim środowisku. Łańcuch boczny nie ma żadnych nowych tokenów. Jego natywnym tokenem jest BCH, a wszystkie opłaty za gaz w sieci są uiszczane w BCH.

Wycena i tokenomika BCH

Podobnie jak Bitcoin, maksymalna podaż Bitcoin Cash ma sztywny limit 21 milionów coinów. Z tego 19,17 miliona było w obiegu w chwili pisania tego tekstu. W czasie pisania jest 17,12 miliona adresów BCH do przechowywania w czasie rzeczywistym, a 10 najlepszych adresów do przechowywania prawie 2,3 miliona BCH. Gdy Bitcoin Cash wykupienie z Bitcoin, prawie 16,5 miliona coinów BCH zostało rozdystrybuowanych wśród istniejących właścicieli BTC o 1:1.

Za każdym razem, gdy wydobywca BCH pomyślnie dodaje nowy blok do blockchaina Bitcoin Cash, otrzymuje on w nagrodę coiny BCH. Ten proces wprowadza nowe coiny BCH do podaży w obiegu. Bitcoin Cash mamechanizm deflacyjny zwany „halvingiem”, podobnie jak Bitcoin. Zgodnie z tym mechanizmem nagrody za kopanie bloków są zmniejszane o połowę co 210 000 bloków lub około czterech lat. Dzieli się historią transakcji Bitcoin w tym zakresie do 1 sierpnia 2017 roku, w dniu jego uruchomienia.

Ostatni halving Bitcoin Cash miał miejsce w kwietniu 2020 roku, co zmniejszyło nagrody za kopanie z 12,5 BCH za blok do 6,25 BCH. Oczekuje się, że kolejne halvingowe wydarzenie nastąpi w 2024 roku, zmniejszając nagrodę za kopanie BCH do 3,125 BCH za blok.

Rozwój BCH

Najważniejszym wydarzeniem w historii Bitcoin Cash był hard fork z 2018 roku, co przyczyniło się do powstaniaBitcoin SV (BSV)15 listopada 2018 r. podział ten spowodował znaczny spadek ceny BCH z 444 USD do najniższej w historii ceny wynoszącej 76,16 grudnia 2018 r. Hard fork powstał jako „wojna cywilna” między dwoma rywalizującymi kempingami w ekosystemie Bitcoin Cash. Jeden obóz, prowadzony przez Rogera Vera i Wu Bitmain, obsługiwał oprogramowanie Bitmain, utrzymując rozmiar bloku o rozmiarze 32 MB. W przeciwieństwie do tego drugi obóz, prowadzony przez Craiga Stevena Wrighta i Kalwina Ayre, faworyzował Bitcoin SV z rozmiarem bloku o rozmiarze 128 MB.

Innym znaczącym wydarzeniem dla Bitcoin Cash był okres w marcu 2020 roku, kiedyStablecoin Tether (USDT)została uruchomiona na swoim blockchainie poprzez standard tokenów SLP (protokół prostego rejestru). Ta implementacja pozwoliła użytkownikom na dokonywanie transakcji USDT na blockchainie Bitcoin Cash wraz z sieciami takimi jakEOS,Ethereum,Tron,Algorand, Liquid Network i Omni.

Informacje o założycielach

Uczestnicy sieci i wydobywcy wspólnie założyli Bitcoin Cash w ekosystemie Bitcoin. Należą do nich znane nazwiska, takie jak Roger Ver, Amaury Sechet, Bitmain, ViaBTC i Craig Wright.

Wszyscy ci uczestnicy byli przeciwni proponowanej aktualizacji Segwit2x na Bitcoin, co oznaczało zwiększenie jego pojemności. Woleli zamiast tego zwiększyć rozmiar bloku Bitcoin do 8 MB. Jednak nie mogli oni spełnić swojego zapotrzebowania, ta grupa uruchomiła hard fork Bitcoin 1 sierpnia 2017 roku i nadał go Bitcoin Cash.

Pokaż więcej
Pokaż mniej
Handluj popularnymi kryptowalutami i instrumentami pochodnymi z niskimi opłatami
Handluj popularnymi kryptowalutami i instrumentami pochodnymi z niskimi opłatami
Rozpocznij

Najczęściej zadawane pytania Bitcoin Cash

Jakie czynniki wpływają na cenę Bitcoin Cash?
Cena Bitcoin Cash bezpośrednio koreluje z ceną Bitcoin. W związku z tym każdy spadek lub wzrost tego ostatniego powoduje odpowiednią akcję cenową dla tego pierwszego. Na cenę BCH wpływa również wiele czynników, w tym stała podaż tokena, wysiłki adopcyjne i zmiany regulacyjne dotyczące kryptowalut.
Jak można kupić Bitcoin Cash?

BCH można kupować na giełdzie OKX. OKX oferuje pary handlowe BCH/USDT, BCH/USDC i BCH/BTC. Alternatywnie można kupić BCH bezpośrednio za pomocą waluty lokalnej lub przeliczyć swoje kryptowaluty na BCH.


Zanim zaczniesz handlować na OKX, musisz utworzyć konto. Aby kupić BCH za preferowaną walutę lokalną, kliknij opcję „Kup za pomocą karty” w sekcji „Kup kryptowalutę” na górnym pasku nawigacyjnym. Aby handlować BCH/USDT, BCH/USDC lub BCH/BTC, kliknij opcję „Handel podstawowy” w sekcji „Handel”. Na tej samej karcie kliknij opcję „Przelicz”, aby przeliczyć kryptowalutę na BCH.


Alternatywnie, odwiedź nasz nowy Kalkulator kryptowalut OKX. Wybierz BCH i żądaną walutę lokalną, którą chcesz przeliczyć, aby wyświetlić szacunkową cenę przeliczenia na żywo.

Jak kupić Bitcoin Cash po określonej cenie?
Jeśli chcesz kupić Bitcoin Cash po określonej cenie, możesz ustawić zlecenie z limitem „Kup BCH” na naszej stronie handlu spot. Umożliwi to zakup Bitcoin Cash według własnych upodobań. Pamiętaj jednak, że być może trzeba będzie poczekać, aż na giełdzie zostanie znaleziony pasujący sprzedawca dla Twojego zlecenia zakupu.
Ile jest wart dzisiaj 1 Bitcoin Cash?
Obecnie jeden Bitcoin Cash jest wart $405,30. Aby uzyskać odpowiedzi i wgląd w akcję cenową Bitcoin Cash, jesteś we właściwym miejscu. Przeglądaj najnowsze wykresy Bitcoin Cash i handluj odpowiedzialnie z OKX.
Co to jest kryptowaluta?
Kryptowaluty, takie jak Bitcoin Cash, to aktywa cyfrowe, które działają w publicznym rejestrze zwanym blockchainem. Dowiedz się więcej o monetach i tokenach oferowanych na OKX oraz ich różnych atrybutach, w tym o cenach na żywo i wykresach w czasie rzeczywistym.
Kiedy wynaleziono kryptowalutę?
Dzięki kryzysowi finansowemu z 2008 r. zainteresowanie zdecentralizowanymi finansami wzrosło. Bitcoin oferował nowatorskie rozwiązanie, zapewniając bezpieczne aktywa cyfrowe w zdecentralizowanej sieci. Od tego czasu powstało również wiele innych tokenów, takich jak Bitcoin Cash.
Czy cena Bitcoin Cash pójdzie dzisiaj w górę?
Sprawdź nasze Strona z prognozą cen Bitcoin Cash, aby prognozować przyszłe ceny i określić swoje cele cenowe.

Ujawnienie ESG

Przepisy ESG (środowiskowe, społeczne i ładu korporacyjnego) dla aktywów kryptowalutowych mają na celu uwzględnienie ich wpływu na środowisko (np. energochłonne kopanie), promowanie przejrzystości i zapewnienie etycznych praktyk zarządzania w celu dostosowania przemysłu kryptowalutowego do szerszego zrównoważonego rozwoju oraz celów społecznych. Przepisy te zachęcają do przestrzegania standardów, które ograniczają czynniki ryzyka i zwiększają zaufanie do aktywów cyfrowych.
Szczegóły aktywów
Nazwa
OKcoin Europe LTD
Identyfikator odpowiedniego podmiotu prawnego
54930069NLWEIGLHXU42
Nazwa aktywa krypto
Bitcoin Cash
Mechanizm konsensusu
Bitcoin Cash is present on the following networks: Bitcoin Cash, Smart Bitcoin Cash. The Bitcoin Cash blockchain network uses a consensus mechanism called Proof of Work (PoW) to achieve distributed consensus among its nodes. It originated from the Bitcoin blockchain, hence has the same consensus mechanisms but with a larger block size, which makes it more centralized. Core Concepts 1. Nodes and Miners: - Nodes: Nodes are computers running the Bitcoin Cash software that participate in the network by validating transactions and blocks. - Miners: Special nodes, called miners, perform the work of creating new blocks by solving complex cryptographic puzzles. 2. Blockchain: - The blockchain is a public ledger that records all Bitcoin Cash transactions in a series of blocks. Each block contains a list of transactions, a reference to the previous block (hash), a timestamp, and a nonce (a random number used once). 3. Hash Functions: - Bitcoin Cash uses the SHA-256 cryptographic hash function to secure the data in blocks. A hash function takes input data and produces a fixed-size string of characters, which appears random. Consensus Process 5. Transaction Validation: - Transactions are broadcast to the network and collected by miners into a block. Each transaction must be validated by nodes to ensure it follows the network's rules, such as correct signatures and sufficient funds. 6. Mining and Block Creation: - Nonce and Hash Puzzle: Miners compete to find a nonce that, when combined with the block's data and passed through the SHA-256 hash function, produces a hash that is less than a target value. This target value is adjusted periodically to ensure that blocks are mined approximately every 10 minutes. - Proof of Work: The process of finding this nonce is computationally intensive and requires significant energy and resources. Once a miner finds a valid nonce, they broadcast the newly mined block to the network. 7. Block Validation and Addition: - Other nodes in the network verify the new block to ensure the hash is correct and that all transactions within the block are valid. - If the block is valid, nodes add it to their copy of the blockchain and the process starts again with the next block. 8. Chain Consensus: - The longest chain (the chain with the most accumulated proof of work) is considered the valid chain by the network. Nodes always work to extend the longest valid chain. - In the case of multiple valid chains (forks), the network will eventually resolve the fork by continuing to mine and extending one chain until it becomes longer. Smart Bitcoin Cash (SmartBCH) operates as a sidechain to Bitcoin Cash (BCH), leveraging a hybrid consensus mechanism combining Proof of Work (PoW) compatibility and validator-based validation. Core Components: Proof of Work Compatibility: SmartBCH relies on Bitcoin Cash's PoW for settlement and security, ensuring robust integration with BCH’s main chain. SHA-256 Algorithm: Uses the same SHA-256 hashing algorithm as Bitcoin Cash, allowing compatibility with existing mining hardware and infrastructure. Consensus via Validators: Transactions within SmartBCH are validated by a set of validators chosen based on staking and operational efficiency. This hybrid approach combines the hash power of PoW with a validator-based model to enhance scalability and flexibility.
Mechanizmy motywacyjne i obowiązujące opłaty
Bitcoin Cash is present on the following networks: Bitcoin Cash, Smart Bitcoin Cash. The Bitcoin Cash blockchain operates on a Proof-of-Work (PoW) consensus mechanism, with incentives and fee structures designed to support miners and the overall network's sustainability: Incentive Mechanism: 1. Block Rewards: o Newly Minted Bitcoins: Miners receive a block reward, which consists of newly created bitcoins for successfully mining a new block. Initially, the reward was 50 BCH, but it halves approximately every four years in an event known as the "halving." o Halving and Scarcity: The halving ensures that the total supply of Bitcoin Cash is capped at 21 million BCH, creating scarcity that could drive up value over time. 2. Transaction Fees: o User Fees: Each transaction includes a fee, paid by users, that incentivizes miners to include the transaction in a new block. This fee market becomes increasingly important as block rewards decrease over time due to the halving events. o Fee Market: Transaction fees are market-driven, with users competing to get their transactions included quickly. Higher fees lead to faster transaction processing, especially during periods of high network congestion. Applicable Fees: 1. Transaction Fees: o Bitcoin Cash transactions require a small fee, paid in BCH, which is determined by the transaction's size and the network demand at the time. These fees are crucial for the continued operation of the network, particularly as block rewards decrease over time due to halvings. 2. Fee Structure During High Demand: o In times of high congestion, users may choose to increase their transaction fees to prioritize their transactions for faster processing. The fee structure ensures that miners are incentivized to prioritize higher-fee transactions. SmartBCH’s incentive model encourages validators and network participants to secure the sidechain and process transactions efficiently. Incentive Mechanisms: Validator Rewards: Validators are rewarded with a share of transaction fees for their role in validating transactions and maintaining the network. Economic Alignment: The system incentivizes validators to act in the network’s best interest, ensuring stability and fostering adoption through economic alignment. Applicable Fees: Transaction Fees: Fees for transactions on SmartBCH are paid in BCH, ensuring seamless integration with the Bitcoin Cash ecosystem.
Początek okresu, którego dotyczy ujawnienie
2024-05-31
Koniec okresu, którego dotyczy ujawnienie
2025-05-31
Raport o energii
Zużycie energii
714468199.89577 (kWh/a)
Zużycie energii odnawialnej
24.134702976 (%)
Intensywność energetyczna
0.09437 (kWh)
Kluczowe źródła energii i metodologie
To determine the proportion of renewable energy usage, the locations of the nodes are to be determined using public information sites, open-source crawlers and crawlers developed in-house. If no information is available on the geographic distribution of the nodes, reference networks are used which are comparable in terms of their incentivization structure and consensus mechanism. This geo-information is merged with public information from Our World in Data, see citation. The intensity is calculated as the marginal energy cost wrt. one more transaction. Ember (2025); Energy Institute - Statistical Review of World Energy (2024) – with major processing by Our World in Data. “Share of electricity generated by renewables – Ember and Energy Institute” [dataset]. Ember, “Yearly Electricity Data Europe”; Ember, “Yearly Electricity Data”; Energy Institute, “Statistical Review of World Energy” [original data]. Retrieved from https://ourworldindata.org/grapher/share-electricity-renewables
Źródła zużycia energii i metodologie
The energy consumption of this asset is aggregated across multiple components: For the calculation of energy consumptions, the so called “top-down” approach is being used, within which an economic calculation of the miners is assumed. Miners are persons or devices that actively participate in the proof-of-work consensus mechanism. The miners are considered to be the central factor for the energy consumption of the network. Hardware is pre-selected based on the consensus mechanism's hash algorithm: SHA-256. A current profitability threshold is determined on the basis of the revenue and cost structure for mining operations. Only Hardware above the profitability threshold is considered for the network. The energy consumption of the network can be determined by taking into account the distribution for the hardware, the efficiency levels for operating the hardware and on-chain information regarding the miners' revenue opportunities. If significant use of merge mining is known, this is taken into account. When calculating the energy consumption, we used - if available - the Functionally Fungible Group Digital Token Identifier (FFG DTI) to determine all implementations of the asset of question in scope and we update the mappings regulary, based on data of the Digital Token Identifier Foundation. For the calculation of energy consumptions, the so called “bottom-up” approach is being used. The nodes are considered to be the central factor for the energy consumption of the network. These assumptions are made on the basis of empirical findings through the use of public information sites, open-source crawlers and crawlers developed in-house. The main determinants for estimating the hardware used within the network are the requirements for operating the client software. The energy consumption of the hardware devices was measured in certified test laboratories. When calculating the energy consumption, we used - if available - the Functionally Fungible Group Digital Token Identifier (FFG DTI) to determine all implementations of the asset of question in scope and we update the mappings regulary, based on data of the Digital Token Identifier Foundation.
Raport o emisji
Emisje GHG DLT — Zakres 1 — Kontrolowane
0.00000 (tCO2e/a)
Emisje GHG DLT — Zakres 2 — Zakupione
294358.08430 (tCO2e/a)
Intensywność GHG
0.03888 (kgCO2e)
Kluczowe źródła GHG i metodologie
To determine the GHG Emissions, the locations of the nodes are to be determined using public information sites, open-source crawlers and crawlers developed in-house. If no information is available on the geographic distribution of the nodes, reference networks are used which are comparable in terms of their incentivization structure and consensus mechanism. This geo-information is merged with public information from Our World in Data, see citation. The intensity is calculated as the marginal emission wrt. one more transaction. Ember (2025); Energy Institute - Statistical Review of World Energy (2024) – with major processing by Our World in Data. “Carbon intensity of electricity generation – Ember and Energy Institute” [dataset]. Ember, “Yearly Electricity Data Europe”; Ember, “Yearly Electricity Data”; Energy Institute, “Statistical Review of World Energy” [original data]. Retrieved from https://ourworldindata.org/grapher/carbon-intensity-electricity Licenced under CC BY 4.0

Kalkulator BCH

USDUSD
BCHBCH
Rozpocznij przygodę z kryptowalutami
Rozpocznij przygodę z kryptowalutami
Szybsza, lepsza, silniejsza niż przeciętna giełda kryptowalut.