„Vitalik Buterin, współzałożyciel Ethereum, nazwał jednym z głównych problemów sieci zwiększenie wolumenu i wzrost złożoności blockchainu w czasie, a także rozważał sposoby ich rozwiązania. Możliwe przyszłości protokołu Ethereum, część 5: Czystkahttps://t.co/ccGZDxgT6O — Vitalik.eth (@VitalikButerin) 26 października 2024 W piątej części eseju „Możliwa przyszłość protokołu Ethereum” zatytułowanego The Purge („Czyszczenie”) wskazał na dwa główne „słabe miejsca” […]„, informuje: businessua.com.ua
Vitalik Buterin, współzałożyciel Ethereum, nazwał jednym z głównych problemów sieci inflację wolumenu i wzrost złożoności blockchaina w czasie, a także rozważał sposoby ich rozwiązanie.
Możliwe przyszłości protokołu Ethereum, część 5: Czystkahttps://t.co/ccGZDxgT6O
— Vitalik.eth (@VitalikButerin) 26 października 2024 r
W piątej części eseju „Możliwa przyszłość protokołu Ethereum” zatytułowanego The Purge wskazał na dwie główne „słabości” w tym zakresie:
- dane historyczne – każda zrealizowana transakcja i konto powinny być przechowywane przez wszystkich klientów na zawsze i pobierane podczas synchronizacji. W rezultacie wolumen ten rośnie, nawet jeśli przepustowość sieci pozostaje niezmieniona;
- funkcje protokołu — znacznie łatwiej jest dodać nowy niż usunąć stary, co prowadzi do zwiększenia złożoności kodu.
„Aby Ethereum mogło utrzymać się w dłuższej perspektywie, potrzebujemy silnego przeciwdziałania obu tym trendom, zmniejszając złożoność i wzdęcia w czasie. Musimy jednak także zachować jedną z kluczowych właściwości, które czynią łańcuchy bloków wspaniałymi: ich zrównoważony rozwój” – podkreślił Buterin.
W chwili pisania tego tekstu w pełni zsynchronizowany węzeł Ethereum wymaga około 1,1 TB miejsca na dysku dla klienta wykonawczego i „kilkaset gigabajtów” więcej dla klienta konsensusu.
Buterin uważa, że jedną z naturalnych możliwości rozwiązania problemu jest przechowywanie jedynie niewielkiego procentu danych przez każdy węzeł. Wiąże się to z jednym z głównych celów etapu The Purge — uproszczeniem uruchamiania klientów na komputerach użytkowników.
W rezultacie można uzyskać sieć składającą się ze 100 000 węzłów, z których każdy zawiera losowy zestaw 10% informacji historycznych. Replikacja tych części 10 000 razy byłaby równoznaczna z pełnym magazynowaniem.