本实验用到的原始数据和脚本:https://github.com/mandrigin/ethereum-mainnet-resolver-witness-stats引言有一种办法也许能加速初始同步过程(initial sync process,指从创世块开始的区块链同步),就是使用区块见证数据(witness)预先建构出缓存树(cache trie),来避免速度较慢的状态访问。这样做需要额外占用硬盘空间和网络带宽,但也许可以大幅加速同步过程。
其中的原理是,一般来说,要执行一个区块,我们就需要默克尔树上的一些数据。虽然在某个块执行以前,默克尔树上已经有一些数据了,但这些数据可能不足以执行区块。所以,正常来说,我们还要从状态数据库(state db)中提取出数据并加到默克尔树上,然后才能验证交易。这个过程可能会很慢,因为 硬盘访问/数据库查询 的速度比较慢。
根据这个问题描述,我们可以划分出三种不同的方案:
1)正常流程(也就是当前在以太坊节点中使用的方案)
在区块 B 执行以前,我们有状态树 T1;
在需要执行 B 的时候,我们把 T1 中遗漏的数据添加到 T1 上,形成 T1',T1'',等等。每次遇到 T1 上没有的信息,我们就在数据库中查找(速度慢)。
执行完 B 之后,我们有了状态树 T2,T2 具备执行 B 所需的所有账户状态。
保持 T2,以备后续使用。
2)无状态流程
在区块 B 执行以前,我们并没有状态树;不过,我们可以拿到一个见证数据 W,来重组执行这个区块所需的状态树。
我们执行 W,获得了状态树 T2。
DeFi 项目 xToken 遭到攻击 损失约 2500 万美元:5月13日消息,DeFi质押和流动性策略平台xToken遭到攻击,xBNTaBancor池以及xSNXaBalancer池立即被耗尽,造成约2500万美元损失,其中,xSNXa合约上直接损失的总价值为416枚ETH,xBNT合约上没有造成直接损失。xToken团队表示,在发现问题后暂停了所有xToken合约的的铸币工作,由于黑客没有直接从xBNT合约上撤出资金,将为xBNTa持有者恢复其全部资产,目前正在进行快照。
另外,黑客从xBNTa合约中提取的416枚ETH占合同资产净值的7%至8%,其余90%仍保留在xSNX合约中,将快照xSNXa余额并提供新代币允许持有者收回其资产。[2021/5/13 21:55:55]
在 T2 上执行区块 B,不需要查找数据库。
区块执行完之后就把 T2 丢掉。
3)准无状态流程(semi-stateless folw)(即本实验要测试的方案)
在区块 B 执行之前,我们有状态树 T1,见证数据 W1、W2、……,足以将 T1 转成 T2
依次在 T1 上执行 W1、W2、……,最后获得 T2,也不需要查询数据库。
在 T2 上执行区块 B,也不需要查询数据库。
留着 T2 以备后续使用。
在初始同步中使用准无状态流程可以获得无状态流程的大部分好处 †,又不需要传输那么多数据,因为我们重用了状态树缓存。
† 在准无状态方案中,区块的并行执行会受到更大的限制
那么,为了测试准无状态方案的性能,我们需要测量两件事:
这一方法需要额外占用多少 硬盘/带宽?与完全富状态的方法相比,它真的更好吗?
其初始同步速度会快多少?
彭博分析师:Purpose旗下比特币ETF基金AUM周五将达到10亿美元:2月21日消息,仅用了两天的交易时间,北美第一只比特币ETF基金的资产管理规模(AUM)就超过了4亿美元,并且有望进一步提高。彭博分析师Eric Balchunas预测Purpose旗下的这只比特币ETF基金AUM将在周五达到10亿美元。(CoinTelegraph)[2021/2/22 17:37:54]
本文中我们会集中测试硬盘需求。
状态树(默克尔树)的最大规模:100 万个 node。一旦节点数超过这个值,我们就驱逐 LRU 节点,以释放内存。用这种办法,我们就能控制状态树对内存的使用。
部分见证数据会存储在数据库中(我们用的是 boltdb)。每个条目的结构如下:
key: byte // 区块号 + 状态树上节点的最大数量value: []byte // 见证数据,按文档中的描述予以序列化我们不会在见证数据里存储合约代码(这是我们当前架构的不足)。
数据按下述方法得到(需要一个同步好的 turbo-geth 节点)
(in the turbo-geth repository)make state./build/bin/state stateless \ — chaindata ~/nvme1/mainnet/mainnet/geth/chaindata \ — statefile semi_stateless.statefile \ — snapshotInterval 1000000 \ — snapshotFrom 10000000 \ — statsfile new_witness.stats.compressed.2.csv \ — witnessDbFile semi_stateless_witnesses.db \ — statelessResolver \ — triesize 1000000 \实验结果存储从创世块开始同步 6, 169, 246 (619 万)区块,见证数据的数据库(bolt db)达到了 99GB。
python quantile-analysis.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv
平均值 0.038 MB中值 0.028 MB90 分位值 0.085 MB95 分位值 0.102 MB99 分位值 0.146 MB最大值 2.350 MB数据大小python absolute_values_plot.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv从创世块到 610 万区块高度的阶段的见证数据大小,图表在 1MB 处截顶了。按 1024 个块取滑动平均值。
absolute_values_plot.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv 3000000解决上海 DDoS 攻击之后的见证数据大小,按 1024 个区块取滑动平均值。
python ddos_zoom.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv放大看 DDoS 攻击对见证数据大小的影响(原始数据)。
可以看到,在 230 万高度到 250 万高度,以及 265 万高度到 275 万高度期间,见证数据的大小显著增大。
python full_vs_semi.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv
完全无状态下的见证数据大小是根据准无状态下的见证数据加上缺失的合约代码部分调整得来的.
从这张图可以看出,使用准无状态方法,可以节约大量数据(与完全无状态方法相比)。
加上一个无状态解析器会让每个区块需要 传输/存储 的数据量增加 0.4 MB。这个值与按区块提供见证数据相比,节约太多,即使算上我们改变状态树模式能够得到的增益相比,也节约非常多(关于十六进制树和二进制树模式下见证数据大小的区块,可见我的上一篇文章)(译者注:中译本见文末超链接)。
如果这个性能还算可以,那么它显然是加速初始同步的好办法;而且它的数据需求比完全无状态方法更小。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。