区块链行业正面临一场由其自身造成的危机。虽然我们庆祝理论上的交易速度并宣扬去中心化,但我们的数据基础设施仍然牢牢扎根于 20 世纪 70 年代的技术。如果 20 秒的加载时间会毁掉一个 Web2 应用,那么我们为什么要在 Web3 中满足于此呢?
53% 的用户在网站加载时间仅三秒后就会放弃访问,我们行业对这些延迟的接受对于网站的采用构成了生存威胁。
交易缓慢不仅仅是用户体验问题。像 Aptos 这样的高性能区块链每秒能够处理数千笔交易。然而,我们正试图通过“Frankenstein Indexers”访问它们的数据——这些系统是由 Posres 和 Kafka 等工具拼凑而成的,而这些工具从来就不是为区块链的独特需求而设计的。

技术债务的隐性成本
其后果远不止简单的延迟。当前的索引解决方案迫使开发团队做出一个不可能的选择:要么构建自定义基础设施(消耗高达 90% 的开发资源),要么接受现有工具的严重限制。这造成了一个性能悖论:我们的区块链速度越快,我们的数据基础设施瓶颈就越明显。
在现实情况下,当做市商需要执行跨链套利交易时,除了与其他交易者竞争外,他们本质上是在与自己的基础设施作斗争。轮询节点或等待状态更新所花费的每一毫秒都意味着错失机会和损失收入。
这不再是理论上的。大型交易公司目前运营数百个节点只是为了保持有竞争力的反应时间。当市场需要峰值性能时,基础设施瓶颈就会成为一个关键的故障点。
传统的自动做市商可能适用于低交易量的代币对,但它们对于机构规模的交易来说根本不够用。
如今,大多数区块链索引器更适合被描述为数据聚合器,它们构建简化的链状态视图,这些视图适用于基本用例,但在严重负载下会崩溃。这种方法可能足以满足第一代 DeFi 应用程序的需求,但在处理多个高性能链上的实时状态变化时,它就完全不够用了。
重新思考数据架构
解决方案需要从根本上重新思考我们如何处理区块链数据。下一代系统必须将数据直接推送给用户,而不是通过传统的数据库架构集中访问,从而实现本地处理以实现真正的低延迟性能。每个数据点都需要可验证的出处,时间戳和证明可确保可靠性,同时降低操纵风险。
根本性转变正在发生。随着区块链速度的加快和 gas 费用的降低,衍生品等复杂金融产品在链上成为可能。此外,衍生品还用于价格发现,目前价格发现发生在中心化交易所。随着区块链速度越来越快、成本越来越低,衍生品协议将成为价格发现的主要场所。
这种转变要求基础设施能够“在眨眼之间”——100 到 150 毫秒之间——提供数据。这不是随意的。这是人类感知到延迟的阈值。任何更慢的速度都会从根本上限制去中心化金融的可能性。
市场力量即将融合
当前过度节点轮询和不一致延迟配置文件的模型无法扩展到严肃的金融应用程序。我们已经看到,大型交易公司正在构建越来越复杂的定制解决方案——这清楚地表明现有基础设施无法满足市场需求。
随着速度更快、手续费更低的区块链能够实现复杂的金融工具,实时传输状态变化的能力对于市场效率至关重要。当前以数秒延迟聚合数据的模型从根本上限制了去中心化金融的可能性。
新兴区块链正在将数据吞吐量推向前所未有的水平。如果数据基础设施没有相应的进步,我们就会制造出连接在自行车车轮上的法拉利发动机——拥有所有动力,却无法有效利用它们。
变革势在必行
市场将推动这一变革。那些无法适应的人将发现自己在这个生态系统中越来越不重要,在这个生态系统中,实时数据访问不仅是一种**品,而且是参与的基本必需品。
文章标题:当前的数据基础设施威胁着DeFi的未来
文章链接:https://www.btchangqing.cn/676351.html
更新时间:2025年03月03日
本站大部分内容均收集于网络,若内容若侵犯到您的权益,请联系我们,我们将第一时间处理。