Binance Square

Daft Punk马到成功版

image
Zweryfikowany twórca
文章均为个人看法,不构成投资建议。
Trader systematyczny
Lata: 1.1
332 Obserwowani
47.5K+ Obserwujący
39.5K+ Polubione
5.9K+ Udostępnione
Posty
PINNED
·
--
Zobacz tłumaczenie
兄弟们,听说又有行业元老拿着推流洗人家第一的稿子,一张嘴就是和这个合作和那个合作,最后原来是和豆包合作洗人家稿,原来炫耀的分数都是洗出来的,你是蓝月亮么这么能洗。此处不点名,自己看榜猜😂
兄弟们,听说又有行业元老拿着推流洗人家第一的稿子,一张嘴就是和这个合作和那个合作,最后原来是和豆包合作洗人家稿,原来炫耀的分数都是洗出来的,你是蓝月亮么这么能洗。此处不点名,自己看榜猜😂
PINNED
Środowisko twórcze na placu wygląda mniej więcej tak, my, zwykli twórcy, tylko dostarczamy materiały dla graczy streamujących. Słyszałem, że wciąż zajmujesz się jakimś oryginałem, przestań żartować, lepiej się położ na spać, plagiat to jedyna droga na placu, oryginalni już dawno umarli z głodu. Gracze streamujący mają dziesiątki tysięcy wyświetleń w ciągu 10 minut, gdybyś nie streamował, naprawdę bym nie zauważył, jak to jest przesadne, nawet tytułów nie zmieniasz, hahaha.
Środowisko twórcze na placu wygląda mniej więcej tak, my, zwykli twórcy, tylko dostarczamy materiały dla graczy streamujących. Słyszałem, że wciąż zajmujesz się jakimś oryginałem, przestań żartować, lepiej się położ na spać, plagiat to jedyna droga na placu, oryginalni już dawno umarli z głodu. Gracze streamujący mają dziesiątki tysięcy wyświetleń w ciągu 10 minut, gdybyś nie streamował, naprawdę bym nie zauważył, jak to jest przesadne, nawet tytułów nie zmieniasz, hahaha.
Zobacz tłumaczenie
为什么现在的“AI公链”看起来都像是在搞违章加盖? 最近把市面上几个喊得最凶的 AI 概念公链的代码逻辑为了个遍,说实话,看得我尴尬症都犯了。大家似乎陷入了一个巨大的误区:觉得只要 TPS 够高、手续费够低,就能把 AI 跑在链上了。但这就像是给算盘装了个 5G 模块,看似先进,实则离谱。这也是为什么当我深扒@Vanar 的技术栈时,会觉得它有点“另类”——它解决的不是“快”的问题,而是 AI 最致命的“健忘”症。 在现有的 EVM 体系里跑 AI Agent,最大的痛点其实是上下文(Context)的缺失。其他的竞品公链,我看来看去更像是在做“旧房改造”,试图在一个只适合记账的账本上强行塞入复杂的神经网络推理数据。结果就是,Agent 每做一步推理,都要烧 Gas 去链上捞数据,或者干脆把数据扔在链下,这还谈什么去中心化?Vanar 的思路倒是有意思,它那个 myNeutron 的设计,明显是看透了这一点。它不是在比拼谁的转账速度快,而是在给区块链装“海马体”。 我看了一圈竞品,大部分所谓的“AI 基础设施”还停留在卖 API 接口的阶段,根本没有触及到数据验证的底层。如果底层的链无法原生支持语义理解,那上面的 AI 就永远是个“瞎子”。Vanar 这种把语义记忆层直接做进基础设施的做法,虽然听起来有点晦涩,但对于开发者来说,这才是真正能用的环境。这就好比一个是只能存 1 和 0 的记事本,一个是能理解逻辑的数据库,这两者的维独完全不在一个层面上。 当然,现在这盘子铺得还不够大,生态也没那些满地土狗的链热闹。但从技术审美的角度看,这种原生的架构比起那些缝缝补补的拼接怪要顺眼多了。未来的 M2M(机器对机器)经济,拼的绝对不是谁能一秒钟转多少次账,而是谁能让 AI 便宜、可信地“思考”。#vanar $VANRY
为什么现在的“AI公链”看起来都像是在搞违章加盖?
最近把市面上几个喊得最凶的 AI 概念公链的代码逻辑为了个遍,说实话,看得我尴尬症都犯了。大家似乎陷入了一个巨大的误区:觉得只要 TPS 够高、手续费够低,就能把 AI 跑在链上了。但这就像是给算盘装了个 5G 模块,看似先进,实则离谱。这也是为什么当我深扒@Vanarchain 的技术栈时,会觉得它有点“另类”——它解决的不是“快”的问题,而是 AI 最致命的“健忘”症。
在现有的 EVM 体系里跑 AI Agent,最大的痛点其实是上下文(Context)的缺失。其他的竞品公链,我看来看去更像是在做“旧房改造”,试图在一个只适合记账的账本上强行塞入复杂的神经网络推理数据。结果就是,Agent 每做一步推理,都要烧 Gas 去链上捞数据,或者干脆把数据扔在链下,这还谈什么去中心化?Vanar 的思路倒是有意思,它那个 myNeutron 的设计,明显是看透了这一点。它不是在比拼谁的转账速度快,而是在给区块链装“海马体”。
我看了一圈竞品,大部分所谓的“AI 基础设施”还停留在卖 API 接口的阶段,根本没有触及到数据验证的底层。如果底层的链无法原生支持语义理解,那上面的 AI 就永远是个“瞎子”。Vanar 这种把语义记忆层直接做进基础设施的做法,虽然听起来有点晦涩,但对于开发者来说,这才是真正能用的环境。这就好比一个是只能存 1 和 0 的记事本,一个是能理解逻辑的数据库,这两者的维独完全不在一个层面上。
当然,现在这盘子铺得还不够大,生态也没那些满地土狗的链热闹。但从技术审美的角度看,这种原生的架构比起那些缝缝补补的拼接怪要顺眼多了。未来的 M2M(机器对机器)经济,拼的绝对不是谁能一秒钟转多少次账,而是谁能让 AI 便宜、可信地“思考”。#vanar $VANRY
Zobacz tłumaczenie
别被 TPS 骗了:我在 Vanar 代码库里看到了 Web3 AI 的真实“骨骼”凌晨三点,盯着屏幕上跳动的 $VANRY 价格曲线,手边的咖啡早就凉透了。窗外是安静的街道,只有几盏路灯还在死撑,像极了这个处于深熊和牛初交界点的市场——表面平静,底下暗流涌动。最近这一周,我几乎把市面上所有标榜“AI 公链”的项目白皮书翻烂了,说实话,越看越想笑。这个圈子太浮躁了,99% 的项目都在玩文字游戏,把 GPT 的 API 接口往链上一接,就敢喊自己是 AI 基础设施。这种感觉就像是有人把法拉利的贴纸贴在拖拉机上,然后告诉你这玩意儿能跑 F1。带着这种近乎审视甚至找茬的心态,我重新打开了 @Vanar 的技术文档,想看看这个最近在 Base 生态搞出动静的链到底是不是也在“挂羊头卖狗肉”。但当我真正沉下心去复盘它的架构逻辑,尤其是对比了现在的以太坊和 Solana 之后,我后背竟然渗出了一层冷汗。我们可能一直都搞错了一个方向:AI 需要的根本不是更快的马车,而是铺设全新的铁轨。 咱们先不聊那些虚头巴脑的市值预测,直接切入最痛的技术痛点。作为一个在链上写过不少垃圾代码的开发者,我太清楚现在的痛楚了。现在的 L1 公链,无论是昂贵的以太坊还是快到飞起的 Solana,本质上都是为了“交易”设计的,而不是为了“思考”设计的。这是一个极其尴尬的错位。如果你试着写过一个真正的 AI Agent(智能体),你会发现简直是在带着镣铐跳舞。现有的区块链是“无状态”的,或者说它的状态存储极极其昂贵。你想让一个 Agent 记住它昨天的决策,或者理解上一步交互的上下文(Context),你得把这些数据存哪里?存在链上?别逗了,那 Gas 费能让你破产。存在中心化服务器?那这还叫什么 Web3 AI,直接用 AWS 不好吗?这就是目前市面上所谓的“AI 项目”不敢告诉你的真相:他们大部分的 AI 逻辑其实都在链下跑,链上只是存了个哈希值。这种“AI-Added”的拼接怪,根本撑不起未来那种数万个 AI 智能体互相博弈、交易、协作的宏大叙事。 这也是 Vanar 让我眼前一亮的地方,它在底层设计上就承认了这种“计算”与“推理”的本质区别。我看了一晚上他们的架构图,Vanar 的做法有点像是在区块链的骨架里植入了一个海马体。它没有像其他公链那样单纯追求 TPS(每秒交易量)这种对于 AI 来说毫无意义的指标,而是把重心放在了“原生数据的处理能力”上。这就像是原本的区块链只是一个只会加减乘除的计算器,而 Vanar 试图把它改造成一个带缓存、能处理复杂逻辑的 CPU。这种差异在看白皮书时可能感觉不明显,但一旦你真的去跑数据,体验是天差地别的。在 Vanar 的逻辑里,数据不仅仅是被记录的账本,更是可以被调用的“记忆”。这就解决了一个致命的问题:信任。如果 AI 的推理过程和数据源不能被低成本地验证和回溯,那么 AI 在金融领域的应用就是个笑话。谁敢把几百万美金交给一个黑盒子里运行的机器人去打理?Vanar 这种将推理层直接嵌入基础设施的做法,其实是在给 AI 的行为“确权”。 这时候肯定有人要跳出来说,Solana 那么快,难道不能跑 AI 吗?这正是我最近反思最深的地方。速度快不代表“好用”。这就好比你让一个百米冲刺冠军去解微积分,他跑得再快也没用,专业不对口。Solana 的高并发是为高频交易(HFT)准备的,它的状态爆炸问题一直是个隐患。而 AI 的运行逻辑是完全不同的,它需要大量的读取、比对、并在复杂的上下文中做决策。Vanar 显然看透了这一点,它没有去卷那个已经杀成红海的 TPS 战场,而是另辟蹊径,去卷“兼容性”和“原生性”。特别是看到它和 Base 的深度绑定,我不得不佩服这步棋走得贼精。Base 背后是 Coinbase 庞大的合规用户群和资金体量,那是 Web2 进入 Web3 的真正入口。Vanar 没有选择在这个孤岛上自嗨,而是通过跨链技术把自己的 AI 能力“出口”到 Base 生态。这招借力打力,直接避开了新公链冷启动最难的流动性枯竭问题。想象一下,Base 上的 DeFi 协议需要风控,需要智能投顾,需要自动化审计,它们不需要自己造轮子,直接调用 Vanar 上的 AI 能力就行。这种“前店后厂”的模式,比那些在这个周期还在喊“以太坊杀手”的老古董们不知道高到哪里去了。 随着深夜的思绪越飘越远,我开始琢磨另一个更有意思的点:机器经济(Machine Economy)。我们现在谈论的 $VANRY 价值,很多人还停留在“如果不涨就是垃圾”的韭菜思维里。但如果我们把视角拉长到三五年,当链上的活跃用户不再是撸毛党,而是几百万个 24 小时无休的 AI Agent 时,Token 的属性就变了。在 Vanar 的网络里,$VANRY 不再仅仅是过路费(Gas),它是算力的货币化,是智能的定价单位。当一个 Agent 需要调用另一个 Agent 的数据,或者请求一次复杂的推理服务时,它支付的是 $VANRY。这构成了一个闭环的经济系统。我在草稿纸上画了又画,试图推演这种经济模型的飞轮效应。如果未来的网络交互 90% 都是由机器完成的,那么谁掌握了机器沟通的“语言”和“支付标准”,谁就掌握了下一个时代的石油。现在的市场显然低估了这种基础设施的构建难度和护城河。搭建一条链很容易,Fork 一下代码两天就能上线,但构建一个让 AI 开发者觉得“顺手”的环境,需要对整个技术栈进行外科手术级别的重构。 当然,作为一个在这个圈子摸爬滚打多年的老油条,我不可能只唱赞歌。Vanar 面临的挑战依然巨大。技术愿景再性感,落地才是硬道理。我翻看了他们的 Github 提交记录,虽然更新频率尚可,但距离真正的“生态大爆发”还有很长的路要走。现在的开发者已经被各种“高大上”的概念搞疲了,如何把这些 Web2 的 AI 开发者真的吸引过来,而不是只吸引一群羊毛党,是 Vanar 团队接下来最头疼的问题。况且,AI 这个赛道迭代太快了,三个月前的技术路线可能今天就被 OpenAI 或者 DeepMind 的一个新论文给颠覆了。Vanar 这种重资产、重底层的打法,能不能跟上 AI 模型演进的速度?这是一个巨大的问号。我在代码注释里看到了一些为了兼容性而做的妥协,这让我隐隐有些担忧。有时候,过于追求大而全的架构,往往会死在细节的体验上。 再聊聊竞品。市面上做 AI 概念的不少,像 FET、AGIX 这些老牌子,更多是侧重于 AI 服务的撮合,有点像中介平台。而 Near 这种高性能链也在往 AI 靠,也就是所谓的“链抽象”。相比之下,Vanar 的定位更像是“特种兵”。它不试图解决所有问题,就死磕“AI 原生基础设施”这一点。这种垂直领域的深耕,在牛市初期可能看不出优势,因为大家都在炒空气,但在潮水退去,大家开始比拼真实业务跑通率的时候,这种“专精特新”的优势就会爆发出来。就像当年的以太坊,刚出来的时候大家都嫌它慢、嫌它贵,但只有它能跑智能合约,所以它赢了。现在,只有 Vanar 这种原生支持 AI 逻辑的链,才有可能跑通真正的智能应用。我不禁想起前两天在社区里看到的一个争论,有人说 Vanar 是“被低估的巨鲸”,我当时还嗤之以鼻,现在回过头看,或许是我们被市面上的噪音干扰了太久,丧失了对硬核技术的敏锐度。 写到这里,窗外的天已经蒙蒙亮了。屏幕上的代码似乎变得有了温度。我关掉那些花花绿绿的行情软件,重新审视 $VANRY。它现在的价格,或许只反映了它作为“又一条公链”的估值,却完全没有计入它作为“AI 经济基石”的溢价。这不仅仅是一个投资标的,更像是一场关于未来互联网形态的赌注。我们正在从“信息互联网”向“价值互联网”再向“智能互联网”跨越。在这个过程中,一定会诞生一个新的巨头,它不是谷歌,也不是亚马逊,而是一个去中心化的智能网络载体。Vanar 会是那个载体吗?我不敢打包票,毕竟在这个行业,先驱变先烈的故事太多了。但至少从目前的代码架构、生态布局和那种“死磕底层”的极客劲儿来看,它拿到了一张非常有分量的入场券。 这几天我一直在思考“原生”这两个字的分量。什么叫原生?就是从娘胎里带出来的基因。很多项目现在的做法是“魔改”,拿着旧时代的锤子去找新时代的钉子,怎么敲怎么别扭。而 Vanar 给我的感觉是,它一开始就是为了这颗钉子设计的。这种基因层面的契合,是后期靠营销和砸钱无论如何也弥补不了的。当别的链还在为了兼容 EVM 搞得焦头烂额时,Vanar 已经在研究怎么让神经网络在链上跑得更顺滑了。这种维度的竞争,根本不在一个层面上。当然,这一切的前提是,团队能耐得住寂寞,不被短期的币价波动搞坏了心态。毕竟在币圈,想踏踏实实做事的诱惑太少了,想割韭菜的诱惑太多了。 最后想说一点关于“信仰”这种虚无缥缈的东西。在 Web3,信仰通常是亏钱的开始。但我对 Vanar 的关注,不是基于信仰,而是基于一种工程师的直觉。这种直觉告诉我,当 AI 开始接管世界,它们需要一个属于它们自己的领地,一个没有中心化霸权、规则透明、代码即法律的领地。Vanar 正在试图建造这个领地。哪怕它最后失败了,它所探索的这条“AI-First”的技术路径,也会成为后来者的灯塔。对于我们这些普通的观察者来说,现在要做的不是梭哈,而是保持足够的敏锐和耐心。在这个充满噪音的市场里,能看懂代码的人永远比只会看 K 线的人多一份底气。下次当你看到$VANAR的价格波动时,别急着操作,先去看看它的 Github,去看看它的 Base 跨链数据,去思考一下,如果未来你的数字管家需要支付工资,它会用什么货币。答案,可能就在这些看似枯燥的技术文档里。#vanar

别被 TPS 骗了:我在 Vanar 代码库里看到了 Web3 AI 的真实“骨骼”

凌晨三点,盯着屏幕上跳动的 $VANRY 价格曲线,手边的咖啡早就凉透了。窗外是安静的街道,只有几盏路灯还在死撑,像极了这个处于深熊和牛初交界点的市场——表面平静,底下暗流涌动。最近这一周,我几乎把市面上所有标榜“AI 公链”的项目白皮书翻烂了,说实话,越看越想笑。这个圈子太浮躁了,99% 的项目都在玩文字游戏,把 GPT 的 API 接口往链上一接,就敢喊自己是 AI 基础设施。这种感觉就像是有人把法拉利的贴纸贴在拖拉机上,然后告诉你这玩意儿能跑 F1。带着这种近乎审视甚至找茬的心态,我重新打开了 @Vanarchain 的技术文档,想看看这个最近在 Base 生态搞出动静的链到底是不是也在“挂羊头卖狗肉”。但当我真正沉下心去复盘它的架构逻辑,尤其是对比了现在的以太坊和 Solana 之后,我后背竟然渗出了一层冷汗。我们可能一直都搞错了一个方向:AI 需要的根本不是更快的马车,而是铺设全新的铁轨。
咱们先不聊那些虚头巴脑的市值预测,直接切入最痛的技术痛点。作为一个在链上写过不少垃圾代码的开发者,我太清楚现在的痛楚了。现在的 L1 公链,无论是昂贵的以太坊还是快到飞起的 Solana,本质上都是为了“交易”设计的,而不是为了“思考”设计的。这是一个极其尴尬的错位。如果你试着写过一个真正的 AI Agent(智能体),你会发现简直是在带着镣铐跳舞。现有的区块链是“无状态”的,或者说它的状态存储极极其昂贵。你想让一个 Agent 记住它昨天的决策,或者理解上一步交互的上下文(Context),你得把这些数据存哪里?存在链上?别逗了,那 Gas 费能让你破产。存在中心化服务器?那这还叫什么 Web3 AI,直接用 AWS 不好吗?这就是目前市面上所谓的“AI 项目”不敢告诉你的真相:他们大部分的 AI 逻辑其实都在链下跑,链上只是存了个哈希值。这种“AI-Added”的拼接怪,根本撑不起未来那种数万个 AI 智能体互相博弈、交易、协作的宏大叙事。
这也是 Vanar 让我眼前一亮的地方,它在底层设计上就承认了这种“计算”与“推理”的本质区别。我看了一晚上他们的架构图,Vanar 的做法有点像是在区块链的骨架里植入了一个海马体。它没有像其他公链那样单纯追求 TPS(每秒交易量)这种对于 AI 来说毫无意义的指标,而是把重心放在了“原生数据的处理能力”上。这就像是原本的区块链只是一个只会加减乘除的计算器,而 Vanar 试图把它改造成一个带缓存、能处理复杂逻辑的 CPU。这种差异在看白皮书时可能感觉不明显,但一旦你真的去跑数据,体验是天差地别的。在 Vanar 的逻辑里,数据不仅仅是被记录的账本,更是可以被调用的“记忆”。这就解决了一个致命的问题:信任。如果 AI 的推理过程和数据源不能被低成本地验证和回溯,那么 AI 在金融领域的应用就是个笑话。谁敢把几百万美金交给一个黑盒子里运行的机器人去打理?Vanar 这种将推理层直接嵌入基础设施的做法,其实是在给 AI 的行为“确权”。
这时候肯定有人要跳出来说,Solana 那么快,难道不能跑 AI 吗?这正是我最近反思最深的地方。速度快不代表“好用”。这就好比你让一个百米冲刺冠军去解微积分,他跑得再快也没用,专业不对口。Solana 的高并发是为高频交易(HFT)准备的,它的状态爆炸问题一直是个隐患。而 AI 的运行逻辑是完全不同的,它需要大量的读取、比对、并在复杂的上下文中做决策。Vanar 显然看透了这一点,它没有去卷那个已经杀成红海的 TPS 战场,而是另辟蹊径,去卷“兼容性”和“原生性”。特别是看到它和 Base 的深度绑定,我不得不佩服这步棋走得贼精。Base 背后是 Coinbase 庞大的合规用户群和资金体量,那是 Web2 进入 Web3 的真正入口。Vanar 没有选择在这个孤岛上自嗨,而是通过跨链技术把自己的 AI 能力“出口”到 Base 生态。这招借力打力,直接避开了新公链冷启动最难的流动性枯竭问题。想象一下,Base 上的 DeFi 协议需要风控,需要智能投顾,需要自动化审计,它们不需要自己造轮子,直接调用 Vanar 上的 AI 能力就行。这种“前店后厂”的模式,比那些在这个周期还在喊“以太坊杀手”的老古董们不知道高到哪里去了。
随着深夜的思绪越飘越远,我开始琢磨另一个更有意思的点:机器经济(Machine Economy)。我们现在谈论的 $VANRY 价值,很多人还停留在“如果不涨就是垃圾”的韭菜思维里。但如果我们把视角拉长到三五年,当链上的活跃用户不再是撸毛党,而是几百万个 24 小时无休的 AI Agent 时,Token 的属性就变了。在 Vanar 的网络里,$VANRY 不再仅仅是过路费(Gas),它是算力的货币化,是智能的定价单位。当一个 Agent 需要调用另一个 Agent 的数据,或者请求一次复杂的推理服务时,它支付的是 $VANRY 。这构成了一个闭环的经济系统。我在草稿纸上画了又画,试图推演这种经济模型的飞轮效应。如果未来的网络交互 90% 都是由机器完成的,那么谁掌握了机器沟通的“语言”和“支付标准”,谁就掌握了下一个时代的石油。现在的市场显然低估了这种基础设施的构建难度和护城河。搭建一条链很容易,Fork 一下代码两天就能上线,但构建一个让 AI 开发者觉得“顺手”的环境,需要对整个技术栈进行外科手术级别的重构。
当然,作为一个在这个圈子摸爬滚打多年的老油条,我不可能只唱赞歌。Vanar 面临的挑战依然巨大。技术愿景再性感,落地才是硬道理。我翻看了他们的 Github 提交记录,虽然更新频率尚可,但距离真正的“生态大爆发”还有很长的路要走。现在的开发者已经被各种“高大上”的概念搞疲了,如何把这些 Web2 的 AI 开发者真的吸引过来,而不是只吸引一群羊毛党,是 Vanar 团队接下来最头疼的问题。况且,AI 这个赛道迭代太快了,三个月前的技术路线可能今天就被 OpenAI 或者 DeepMind 的一个新论文给颠覆了。Vanar 这种重资产、重底层的打法,能不能跟上 AI 模型演进的速度?这是一个巨大的问号。我在代码注释里看到了一些为了兼容性而做的妥协,这让我隐隐有些担忧。有时候,过于追求大而全的架构,往往会死在细节的体验上。
再聊聊竞品。市面上做 AI 概念的不少,像 FET、AGIX 这些老牌子,更多是侧重于 AI 服务的撮合,有点像中介平台。而 Near 这种高性能链也在往 AI 靠,也就是所谓的“链抽象”。相比之下,Vanar 的定位更像是“特种兵”。它不试图解决所有问题,就死磕“AI 原生基础设施”这一点。这种垂直领域的深耕,在牛市初期可能看不出优势,因为大家都在炒空气,但在潮水退去,大家开始比拼真实业务跑通率的时候,这种“专精特新”的优势就会爆发出来。就像当年的以太坊,刚出来的时候大家都嫌它慢、嫌它贵,但只有它能跑智能合约,所以它赢了。现在,只有 Vanar 这种原生支持 AI 逻辑的链,才有可能跑通真正的智能应用。我不禁想起前两天在社区里看到的一个争论,有人说 Vanar 是“被低估的巨鲸”,我当时还嗤之以鼻,现在回过头看,或许是我们被市面上的噪音干扰了太久,丧失了对硬核技术的敏锐度。
写到这里,窗外的天已经蒙蒙亮了。屏幕上的代码似乎变得有了温度。我关掉那些花花绿绿的行情软件,重新审视 $VANRY 。它现在的价格,或许只反映了它作为“又一条公链”的估值,却完全没有计入它作为“AI 经济基石”的溢价。这不仅仅是一个投资标的,更像是一场关于未来互联网形态的赌注。我们正在从“信息互联网”向“价值互联网”再向“智能互联网”跨越。在这个过程中,一定会诞生一个新的巨头,它不是谷歌,也不是亚马逊,而是一个去中心化的智能网络载体。Vanar 会是那个载体吗?我不敢打包票,毕竟在这个行业,先驱变先烈的故事太多了。但至少从目前的代码架构、生态布局和那种“死磕底层”的极客劲儿来看,它拿到了一张非常有分量的入场券。
这几天我一直在思考“原生”这两个字的分量。什么叫原生?就是从娘胎里带出来的基因。很多项目现在的做法是“魔改”,拿着旧时代的锤子去找新时代的钉子,怎么敲怎么别扭。而 Vanar 给我的感觉是,它一开始就是为了这颗钉子设计的。这种基因层面的契合,是后期靠营销和砸钱无论如何也弥补不了的。当别的链还在为了兼容 EVM 搞得焦头烂额时,Vanar 已经在研究怎么让神经网络在链上跑得更顺滑了。这种维度的竞争,根本不在一个层面上。当然,这一切的前提是,团队能耐得住寂寞,不被短期的币价波动搞坏了心态。毕竟在币圈,想踏踏实实做事的诱惑太少了,想割韭菜的诱惑太多了。
最后想说一点关于“信仰”这种虚无缥缈的东西。在 Web3,信仰通常是亏钱的开始。但我对 Vanar 的关注,不是基于信仰,而是基于一种工程师的直觉。这种直觉告诉我,当 AI 开始接管世界,它们需要一个属于它们自己的领地,一个没有中心化霸权、规则透明、代码即法律的领地。Vanar 正在试图建造这个领地。哪怕它最后失败了,它所探索的这条“AI-First”的技术路径,也会成为后来者的灯塔。对于我们这些普通的观察者来说,现在要做的不是梭哈,而是保持足够的敏锐和耐心。在这个充满噪音的市场里,能看懂代码的人永远比只会看 K 线的人多一份底气。下次当你看到$VANAR的价格波动时,别急着操作,先去看看它的 Github,去看看它的 Base 跨链数据,去思考一下,如果未来你的数字管家需要支付工资,它会用什么货币。答案,可能就在这些看似枯燥的技术文档里。#vanar
Zobacz tłumaczenie
盯着账户里跌得面目全非的余额,我也曾动过把XPL直接拉黑的念头,毕竟接近90%的回撤对于任何持币者来说都是一场心理霸凌。但作为一个习惯在代码里找逻辑的“技术控”,当情绪退潮,我反而看到了被市场错杀的真实价值。我们在Web3喊了太久的Mass Adoption,可现实是极度割裂的:你要给圈外朋友转一笔USDT,得先教他买ETH或者SOL做Gas费,这种反人类的门槛直接把99%的新用户挡在了门外。所以我重新审视@Plasma 时,那个Paymaster机制确是击中了我,它让你在转账稳定币时完全不需要持有原生代币,这种丝滑的“Zero Gas”体验,才真正有了点支付宝或者微信支付的影子,比起那些还在比拼TPS但忽视交互体验的竞品公链,这才是支付赛道该有的底层逻辑。 资金是最聪明的,它从来不看喊单只看安全。我去扒了链上数据,Maple Finance上面的SyrupUSDT借贷池TVL竟然稳稳趴着11亿美元,这种体量的机构资金沉淀是非常诚实的投票。机构敢把这笔巨款放在这,看中的无非是它把状态定期锚定到比特币网络的设计,这种借力BTC安全性的架构,比很多纯粹依靠自身共识的PoS链要厚重得多。还有一点容易被忽视,Rain cards覆盖的1.5亿商户和Oobit接入Visa网络,这些都是实打实的支付落地,而不是飘在天上的空气PPT。 当然,我也必须客观吐槽目前的问题,现在的验证者网络中心化程度依然很高,团队控盘的痕迹明显,这始终是悬在头顶的达摩克利斯之剑。而且生态应用的匮乏也是不争的事实,除了转账和借贷,我想找个好玩的DApp交互一下都显得捉襟见肘,这种生态的贫瘠限制了资金的流转效率。但在如今这个甚至连白皮书都懒得写的浮躁市场里,能踏实解决“支付痛点”并且有巨额TVL托底的项目,或许值得我在这个极度悲观的价格区间,再多给它一点耐心和时间。#plasma $XPL
盯着账户里跌得面目全非的余额,我也曾动过把XPL直接拉黑的念头,毕竟接近90%的回撤对于任何持币者来说都是一场心理霸凌。但作为一个习惯在代码里找逻辑的“技术控”,当情绪退潮,我反而看到了被市场错杀的真实价值。我们在Web3喊了太久的Mass Adoption,可现实是极度割裂的:你要给圈外朋友转一笔USDT,得先教他买ETH或者SOL做Gas费,这种反人类的门槛直接把99%的新用户挡在了门外。所以我重新审视@Plasma 时,那个Paymaster机制确是击中了我,它让你在转账稳定币时完全不需要持有原生代币,这种丝滑的“Zero Gas”体验,才真正有了点支付宝或者微信支付的影子,比起那些还在比拼TPS但忽视交互体验的竞品公链,这才是支付赛道该有的底层逻辑。
资金是最聪明的,它从来不看喊单只看安全。我去扒了链上数据,Maple Finance上面的SyrupUSDT借贷池TVL竟然稳稳趴着11亿美元,这种体量的机构资金沉淀是非常诚实的投票。机构敢把这笔巨款放在这,看中的无非是它把状态定期锚定到比特币网络的设计,这种借力BTC安全性的架构,比很多纯粹依靠自身共识的PoS链要厚重得多。还有一点容易被忽视,Rain cards覆盖的1.5亿商户和Oobit接入Visa网络,这些都是实打实的支付落地,而不是飘在天上的空气PPT。
当然,我也必须客观吐槽目前的问题,现在的验证者网络中心化程度依然很高,团队控盘的痕迹明显,这始终是悬在头顶的达摩克利斯之剑。而且生态应用的匮乏也是不争的事实,除了转账和借贷,我想找个好玩的DApp交互一下都显得捉襟见肘,这种生态的贫瘠限制了资金的流转效率。但在如今这个甚至连白皮书都懒得写的浮躁市场里,能踏实解决“支付痛点”并且有巨额TVL托底的项目,或许值得我在这个极度悲观的价格区间,再多给它一点耐心和时间。#plasma $XPL
Zobacz tłumaczenie
当并行EVM的叙事退潮后:我在Plasma链上跑了一周的全节点真实体验与Reth架构的冷思考盯着屏幕上不断跳动的块高,看着左侧终端里Reth客户端吞吐日志像瀑布一样流淌,这大概是这周以来最让我感到内心平静的时刻。外面市场吵翻了天,大家都在追逐着Monad的上线预期和Berachain的流动性挖矿,好像如果不参与那些高达三位数的APY游戏,你就被这个行业抛弃了。但我偏偏在这个时候,选择在这个所谓“老旧概念重启”的@Plasma 链上折腾了一周,不仅是为了那点潜在的节点奖励,更是想弄清楚,在2026年这个时间节点,当我们谈论高性能L1时,除了堆砌硬件和修改共识,到底还有没有别的路可走。 说实话,刚开始决定同步全节点的时候,我是带着挑刺的心态来的。毕竟现在的公链赛道太卷了,Solana已经证明了只要硬件够强,中心化一点也能跑得飞快;而以太坊的L2们则在排序器的黑盒子里玩得不亦乐乎。Plasma在这个节点切入,宣称用Reth重写底层,这就好比在一群开F1赛车的人中间,突然来了一个说自己重新发明了轮子的工程师。但我实际跑下来的体验,确实给了我一记闷棍,那种冲击感不是来自于TPS的数字,而是来自于一种久违的“工程美学”的回归。 我跑节点用的机器配置并不算豪华,就是一台普通的消费级服务器。按照以往跑Geth或者Solana验证者的经验,内存泄露和硬盘IO爆炸几乎是家常便饭,你得像伺候大爷一样盯着Prometheus的监控面板。但在Plasma这儿,Reth的表现冷静得可怕。Rust语言的内存安全性在这里体现得淋漓尽致,整个同步过程,内存占用曲线平滑得像刚熨过的衬衫。这不仅仅是省资源的问题,它意味着在处理高并发交易时,底层的执行环境不会因为垃圾回收机制(GC)的停顿而造成莫名的延迟。这种底层的确定性,对于一个标榜要做“支付原语”的链来说,比单纯吹嘘10万TPS要关键得多。 这就引出了我在使用过程中发现的第一个核心差异,也是它跟目前市面上最大的竞品——那些并行EVM链(比如Monad或Sei)的区别。并行EVM的逻辑是“大力出奇迹”,通过多线程同时处理互不冲突的交易来提升速度,这听起来很性感,但在实际的支付场景中,交易往往是有序且高频冲突的。比如在某个热门NFT发售或者抢购场景下,并行执行往往会退化成串行。而我在Plasma上做压力测试的时候,发现它并没有盲目追求并行,而是利用Reth的高效状态读取能力,把单线程的执行效率压榨到了极致。这种感觉怎么形容呢,就像是一个内功深厚的武林高手,不需要花里胡哨的招式,一拳就能打死老师傅。 当然,吹了半天架构,还得聊聊实际转账的体验。这也正是我要吐槽的地方,也是目前Plasma面临的最大问题。虽然官方一直在推崇那个Gas Abstraction(Gas抽象)机制,说是用户可以用USDT甚至BTC直接付手续费,但我实际操作下来,发现这个功能的磨合期还很长。有好几次,我试图用钱包里的小额USDC去支付一笔转账的Gas,结果交易卡在了Mempool(内存池)里半天没动静。后来查了半天文档才明白,原来是底层的Paymaster(代付合约)在那个时间段的流动性枯竭了,导致验证者不愿意打包这类交易。这就很尴尬了,本来是想降低门槛,结果反而增加了用户的心智负担。相比之下,Tron虽然被大家诟病中心化,但人家转账是真的傻瓜式操作。Plasma想要做支付链,这种基础设施的细节如果不打磨好,再牛逼的技术架构也白搭。 再来说说跟以太坊L2的对比。现在的L2,像Base或者Arbitrum,虽然体验不错,但那个最终确认性(Finality)始终是个心病。你从交易所提币到L2,或者从L2跨回主网,那个等待期有时候能让人焦虑症发作。Plasma在这里用了一个很讨巧的PlasmaBFT共识,我看了一下代码,它其实是在HotStuff的基础上做了改动,把流水线作业引入了共识层。我在测试网的一笔跨链交易,从发起请求到那边确认,体感上只用了不到3秒。这在支付场景下是质的飞跃。想象一下,你在便利店买瓶水,肯定不能等你那个Optimistic Rollup过七天的欺诈挑战期吧?即便是ZK Rollup,生成证明也是要时间的。Plasma这种即时确定性,确实切中了支付的痛点。但是,这也带来了另一个隐忧,那就是验证者节点的准入门槛。虽然官方号称去中心化,但我看目前活跃的验证者列表,大部分还是那些熟悉的机构名字。这种速度的提升,多少还是牺牲了一部分去中心化的程度换来的。 在使用过程中,我还发现了一个很有意思但也很让人头疼的现象,就是它的UTXO模型跟账户模型的混合。Plasma为了兼容EVM,搞了一套很复杂的映射机制。对于开发者来说,这简直是噩梦。我尝试部署一个简单的Uniswap V2分叉合约,结果报错报得我怀疑人生。很多在以太坊上理所当然的全局状态调用,在这里都需要重新思考。虽然官方文档说这是为了状态隔离,为了防范未来的状态爆炸,但对于现阶段想进来“撸毛”或者搞土狗项目的开发者来说,这简直就是一道叹息之墙。这也就解释了为什么链上目前的生态看起来这么“荒凉”,除了官方扶持的几个DeFi协议,几乎看不到什么野生的创新项目。 这让我不禁想到了当年的EOS,也是技术强得一塌糊涂,也是号称要解决扩展性,结果最后变成了菠菜链。Plasma现在的处境其实挺微妙的。它有着比Monad更务实的执行层架构,有着比L2更快的最终确定性,但它缺的是一种“市井气”。现在的链上太干净了,干净得像个无菌实验室。我们知到,区块链的活力往往来自于那些乱七八糟的、甚至带有灰色地带的创新。如果Plasma一直这么端着,搞什么完美的支付原语,很可能会陷入“叫好不叫座”的窘境。 不过,从另一个角度看,这或许也是它的护城河。在大家都忙着发Meme币、搞庞氏盘子的时候,能有一条链沉下心来死磕Reth客户端的优化,死磕状态存储的压缩,这本身就是一种稀缺的品质。我在翻看它的Github提交记录时,发现核心开发团队对于每一个Opcode的Gas定价都在反复推敲,甚至为了一个数据库的读写索引优化能争论好几天。这种工程师文化在现在的币圈简直是珍稀动物。 回头看看这几天的Gas消耗,低得惊人。这得益于Reth对存储布局的优化,它不再像Geth那样产生大量的读写放大。对于我这种全节点运营者来说,这意味着我的硬盘寿命能延长不少,运维成本也直线下降。这其实是一个被很多人忽视的竞争力。现在的Solana节点,光是硬件成本就劝退了99%的人,导致最后节点都集中在几个大机房里。而Plasma如果能把节点门槛降下来,让更多像我这样的散户能跑得起全节点,那它的去中心化叙事才算是真正立住了。 还有一个不得不提的竞品是TON。最近TON借着Telegram的流量势头很猛,主打的也是支付和高并发。但TON那个异步架构,开发难度简直是地狱级,而且经常出现丢消息的情况。相比之下,Plasma坚持EVM兼容(虽然有点水土不服)还是明智的。至少,它保留了把以太坊庞大生态迁移过来的可能性。只是目前这个桥接的过程,还需要极大的优化。我试着把一笔资产从以太坊主网跨过去,那个官方桥的UI简陋得像上个世纪的产物,而且中间还因为RPC节点不同步失败了一次,吓得我以为资产丢失了。这种惊心动魄的体验,绝对是阻碍大规模采用(Mass Adoption)的拦路虎。 写到这里,窗外的天已经快亮了,屏幕上的同步日志依然在平稳地滚动。这一周的体验,让我对Plasma这个项目有了更复杂的感情。它不是完美的,甚至在很多用户体验的细节上是粗糙的。它没有Monad那样铺天盖地的营销,也没有Base那样背靠大树的好乘凉。它像个执拗理工男,认准了Reth这条路,认准了支付这个最难啃的骨头,就在那儿死磕。 在2026年,我们见过了太多昙花一现的“高性能公链”,它们大多死于生态枯竭或者资本撤退。Plasma能不能活下来,不取决于它的Reth架构有多精妙,而取决于它能不能放下身段,去解决我上面提到的那些具体的、琐碎的、甚至有点无聊的问题:比如Paymaster的流动性怎么保证,比如跨链桥的UI能不能改改,比如怎么让开发者更爽地部署合约。 技术是骨架,应用才是血肉。现在的Plasma,骨架很硬朗,甚至是惊艳,但血肉还太干瘪。作为一名在这个行业摸爬滚打多年的老韭菜,我或许不会把全副身家都押注在它上面,但我会保留这个全节点,继续跑下去。因为在这个浮躁的、充满了快钱和欺诈的行业里,我愿意为这种对技术底层的尊重和对工程极限的探索,保留一份小小的期待。或许有一天,当我们不再谈论TPS,不再谈论Gas费的时候,真正的支付革命才会悄无声息地发生,而Plasma,或许就是那个在后台默默支撑的影子。但这之前,它得先活过这个残酷的冬天,还得把那些该死的Bug修完,别再让我转账的时候卡在内存池里怀疑人生了,毕竟,信任这东西,建立起来如抽丝,崩塌起来如山倒。对于支付链而言,每一次卡顿,都是对共识的一次削弱。希望下一次升级,能看到真正的改变,而不是白皮书上又多了一堆看不懂的数学公式。#plasma $XPL

当并行EVM的叙事退潮后:我在Plasma链上跑了一周的全节点真实体验与Reth架构的冷思考

盯着屏幕上不断跳动的块高,看着左侧终端里Reth客户端吞吐日志像瀑布一样流淌,这大概是这周以来最让我感到内心平静的时刻。外面市场吵翻了天,大家都在追逐着Monad的上线预期和Berachain的流动性挖矿,好像如果不参与那些高达三位数的APY游戏,你就被这个行业抛弃了。但我偏偏在这个时候,选择在这个所谓“老旧概念重启”的@Plasma 链上折腾了一周,不仅是为了那点潜在的节点奖励,更是想弄清楚,在2026年这个时间节点,当我们谈论高性能L1时,除了堆砌硬件和修改共识,到底还有没有别的路可走。
说实话,刚开始决定同步全节点的时候,我是带着挑刺的心态来的。毕竟现在的公链赛道太卷了,Solana已经证明了只要硬件够强,中心化一点也能跑得飞快;而以太坊的L2们则在排序器的黑盒子里玩得不亦乐乎。Plasma在这个节点切入,宣称用Reth重写底层,这就好比在一群开F1赛车的人中间,突然来了一个说自己重新发明了轮子的工程师。但我实际跑下来的体验,确实给了我一记闷棍,那种冲击感不是来自于TPS的数字,而是来自于一种久违的“工程美学”的回归。
我跑节点用的机器配置并不算豪华,就是一台普通的消费级服务器。按照以往跑Geth或者Solana验证者的经验,内存泄露和硬盘IO爆炸几乎是家常便饭,你得像伺候大爷一样盯着Prometheus的监控面板。但在Plasma这儿,Reth的表现冷静得可怕。Rust语言的内存安全性在这里体现得淋漓尽致,整个同步过程,内存占用曲线平滑得像刚熨过的衬衫。这不仅仅是省资源的问题,它意味着在处理高并发交易时,底层的执行环境不会因为垃圾回收机制(GC)的停顿而造成莫名的延迟。这种底层的确定性,对于一个标榜要做“支付原语”的链来说,比单纯吹嘘10万TPS要关键得多。
这就引出了我在使用过程中发现的第一个核心差异,也是它跟目前市面上最大的竞品——那些并行EVM链(比如Monad或Sei)的区别。并行EVM的逻辑是“大力出奇迹”,通过多线程同时处理互不冲突的交易来提升速度,这听起来很性感,但在实际的支付场景中,交易往往是有序且高频冲突的。比如在某个热门NFT发售或者抢购场景下,并行执行往往会退化成串行。而我在Plasma上做压力测试的时候,发现它并没有盲目追求并行,而是利用Reth的高效状态读取能力,把单线程的执行效率压榨到了极致。这种感觉怎么形容呢,就像是一个内功深厚的武林高手,不需要花里胡哨的招式,一拳就能打死老师傅。
当然,吹了半天架构,还得聊聊实际转账的体验。这也正是我要吐槽的地方,也是目前Plasma面临的最大问题。虽然官方一直在推崇那个Gas Abstraction(Gas抽象)机制,说是用户可以用USDT甚至BTC直接付手续费,但我实际操作下来,发现这个功能的磨合期还很长。有好几次,我试图用钱包里的小额USDC去支付一笔转账的Gas,结果交易卡在了Mempool(内存池)里半天没动静。后来查了半天文档才明白,原来是底层的Paymaster(代付合约)在那个时间段的流动性枯竭了,导致验证者不愿意打包这类交易。这就很尴尬了,本来是想降低门槛,结果反而增加了用户的心智负担。相比之下,Tron虽然被大家诟病中心化,但人家转账是真的傻瓜式操作。Plasma想要做支付链,这种基础设施的细节如果不打磨好,再牛逼的技术架构也白搭。
再来说说跟以太坊L2的对比。现在的L2,像Base或者Arbitrum,虽然体验不错,但那个最终确认性(Finality)始终是个心病。你从交易所提币到L2,或者从L2跨回主网,那个等待期有时候能让人焦虑症发作。Plasma在这里用了一个很讨巧的PlasmaBFT共识,我看了一下代码,它其实是在HotStuff的基础上做了改动,把流水线作业引入了共识层。我在测试网的一笔跨链交易,从发起请求到那边确认,体感上只用了不到3秒。这在支付场景下是质的飞跃。想象一下,你在便利店买瓶水,肯定不能等你那个Optimistic Rollup过七天的欺诈挑战期吧?即便是ZK Rollup,生成证明也是要时间的。Plasma这种即时确定性,确实切中了支付的痛点。但是,这也带来了另一个隐忧,那就是验证者节点的准入门槛。虽然官方号称去中心化,但我看目前活跃的验证者列表,大部分还是那些熟悉的机构名字。这种速度的提升,多少还是牺牲了一部分去中心化的程度换来的。
在使用过程中,我还发现了一个很有意思但也很让人头疼的现象,就是它的UTXO模型跟账户模型的混合。Plasma为了兼容EVM,搞了一套很复杂的映射机制。对于开发者来说,这简直是噩梦。我尝试部署一个简单的Uniswap V2分叉合约,结果报错报得我怀疑人生。很多在以太坊上理所当然的全局状态调用,在这里都需要重新思考。虽然官方文档说这是为了状态隔离,为了防范未来的状态爆炸,但对于现阶段想进来“撸毛”或者搞土狗项目的开发者来说,这简直就是一道叹息之墙。这也就解释了为什么链上目前的生态看起来这么“荒凉”,除了官方扶持的几个DeFi协议,几乎看不到什么野生的创新项目。
这让我不禁想到了当年的EOS,也是技术强得一塌糊涂,也是号称要解决扩展性,结果最后变成了菠菜链。Plasma现在的处境其实挺微妙的。它有着比Monad更务实的执行层架构,有着比L2更快的最终确定性,但它缺的是一种“市井气”。现在的链上太干净了,干净得像个无菌实验室。我们知到,区块链的活力往往来自于那些乱七八糟的、甚至带有灰色地带的创新。如果Plasma一直这么端着,搞什么完美的支付原语,很可能会陷入“叫好不叫座”的窘境。
不过,从另一个角度看,这或许也是它的护城河。在大家都忙着发Meme币、搞庞氏盘子的时候,能有一条链沉下心来死磕Reth客户端的优化,死磕状态存储的压缩,这本身就是一种稀缺的品质。我在翻看它的Github提交记录时,发现核心开发团队对于每一个Opcode的Gas定价都在反复推敲,甚至为了一个数据库的读写索引优化能争论好几天。这种工程师文化在现在的币圈简直是珍稀动物。
回头看看这几天的Gas消耗,低得惊人。这得益于Reth对存储布局的优化,它不再像Geth那样产生大量的读写放大。对于我这种全节点运营者来说,这意味着我的硬盘寿命能延长不少,运维成本也直线下降。这其实是一个被很多人忽视的竞争力。现在的Solana节点,光是硬件成本就劝退了99%的人,导致最后节点都集中在几个大机房里。而Plasma如果能把节点门槛降下来,让更多像我这样的散户能跑得起全节点,那它的去中心化叙事才算是真正立住了。
还有一个不得不提的竞品是TON。最近TON借着Telegram的流量势头很猛,主打的也是支付和高并发。但TON那个异步架构,开发难度简直是地狱级,而且经常出现丢消息的情况。相比之下,Plasma坚持EVM兼容(虽然有点水土不服)还是明智的。至少,它保留了把以太坊庞大生态迁移过来的可能性。只是目前这个桥接的过程,还需要极大的优化。我试着把一笔资产从以太坊主网跨过去,那个官方桥的UI简陋得像上个世纪的产物,而且中间还因为RPC节点不同步失败了一次,吓得我以为资产丢失了。这种惊心动魄的体验,绝对是阻碍大规模采用(Mass Adoption)的拦路虎。
写到这里,窗外的天已经快亮了,屏幕上的同步日志依然在平稳地滚动。这一周的体验,让我对Plasma这个项目有了更复杂的感情。它不是完美的,甚至在很多用户体验的细节上是粗糙的。它没有Monad那样铺天盖地的营销,也没有Base那样背靠大树的好乘凉。它像个执拗理工男,认准了Reth这条路,认准了支付这个最难啃的骨头,就在那儿死磕。
在2026年,我们见过了太多昙花一现的“高性能公链”,它们大多死于生态枯竭或者资本撤退。Plasma能不能活下来,不取决于它的Reth架构有多精妙,而取决于它能不能放下身段,去解决我上面提到的那些具体的、琐碎的、甚至有点无聊的问题:比如Paymaster的流动性怎么保证,比如跨链桥的UI能不能改改,比如怎么让开发者更爽地部署合约。
技术是骨架,应用才是血肉。现在的Plasma,骨架很硬朗,甚至是惊艳,但血肉还太干瘪。作为一名在这个行业摸爬滚打多年的老韭菜,我或许不会把全副身家都押注在它上面,但我会保留这个全节点,继续跑下去。因为在这个浮躁的、充满了快钱和欺诈的行业里,我愿意为这种对技术底层的尊重和对工程极限的探索,保留一份小小的期待。或许有一天,当我们不再谈论TPS,不再谈论Gas费的时候,真正的支付革命才会悄无声息地发生,而Plasma,或许就是那个在后台默默支撑的影子。但这之前,它得先活过这个残酷的冬天,还得把那些该死的Bug修完,别再让我转账的时候卡在内存池里怀疑人生了,毕竟,信任这东西,建立起来如抽丝,崩塌起来如山倒。对于支付链而言,每一次卡顿,都是对共识的一次削弱。希望下一次升级,能看到真正的改变,而不是白皮书上又多了一堆看不懂的数学公式。#plasma $XPL
Nie daj się już oszukiwać przez wynajem mocy obliczeniowej, @Vanar ta pierwotna architektura „mózgu” jest naprawdę interesująca Ta runda wyścigu AI jest gorąco dyskutowana, ale im więcej na to patrzę, tym bardziej czuję, że coś jest nie tak. Cała ekranowa DePIN opowiada historie o wynajmie mocy obliczeniowej, mówiąc prosto, to tylko zdecentralizowany AWS drugiego poziomu, prawda? Tego rodzaju prosta fizyczna kumulacja jest daleka od prawdziwej inteligencji Web3. Ostatnio poszedłem przeszukać białą księgę i Github Vanar, początkowo z zamiarem szukania problemów, ale odkryłem, że ci ludzie mają całkiem ciekawe pomysły, nie skupiają się na TPS ani na dystrybucji mocy obliczeniowej, lecz na problemie, który wiele publicznych łańcuchów nawet nie zrozumiało: koszty „pamięci” i „wnioskowania” AI na łańcuchu. Ci, którzy zajmują się technologią, wiedzą, że taki stan jak Ethereum jest z natury zapominalski. Jeśli chcesz, aby agent AI działał na łańcuchu, samo przesłanie modelu na łańcuch nic nie da, gdzie przechowywać ogromne ilości kontekstowych danych generowanych podczas procesu wnioskowania? Przechowywanie na Arweave jest zbyt wolne, a przechowywanie na łańcuchu kosztuje fortunę. Architektura Neutron stworzona przez Vanar sprawiła, że się uśmiechnąłem, to tak, jakby na blockchainie zainstalować hipokamp. Wykorzystując TensorRT do optymalizacji wnioskowania, skomplikowane dane semantyczne są kompresowane do postaci zrozumiałych na łańcuchu Seeds, co oznacza, że agent nie jest „głupcem”, który musi za każdym razem przeliczać wszystko od nowa, ale ma zdolność do taniej, ciągłej pamięci. To sprawia, że te projekty, które wciąż polegają na mostach międzyłańcuchowych, aby połączyć GPT-4, zostają daleko w tyle; pierwsze z nich uczą blockchain myślenia, a drugie maksymalnie są tylko długodystansowym telefonem do AI. Szczerze mówiąc, obecne doświadczenie ekosystemu jest rzeczywiście jeszcze dość wczesne, zrealizowałem rundę DApp, która wydaje się nieco „opustoszała”, a interakcje interfejsu mają jeszcze błędy; wczoraj ten swap kręcił się na okrągło przez długi czas, ale ta podstawowa logika zamknięta sprawiła, że czuję się pewnie. W porównaniu do tych projektów, które mają błyszczące prezentacje, ale tak naprawdę tylko sprzedają węzły, Vanar wyraźnie stara się budować tę najtrudniejszą warstwę „infrastruktury obliczeniowej”. Jeśli w przyszłości DeFi naprawdę może ewoluować w dynamiczne modele zarządzania ryzykiem napędzane AI, lub jeśli NPC w grach łańcuchowych mogą zyskać autonomiczną świadomość, to fundamenty na pewno będą w łańcuchu, który może natywnie przetwarzać wysoką przepustowość wnioskowania, a nie w tych starych skarbach, które obcinają wydajność, aby dostosować się do EVM. My, którzy prowadzimy badania, nie powinniśmy wciąż skupiać się na krótkoterminowych wahaniach linii K, musimy sprawdzić, czy w repozytorium kodu naprawdę składają klocki, czy budują silniki. #vanar $VANRY
Nie daj się już oszukiwać przez wynajem mocy obliczeniowej, @Vanarchain ta pierwotna architektura „mózgu” jest naprawdę interesująca
Ta runda wyścigu AI jest gorąco dyskutowana, ale im więcej na to patrzę, tym bardziej czuję, że coś jest nie tak. Cała ekranowa DePIN opowiada historie o wynajmie mocy obliczeniowej, mówiąc prosto, to tylko zdecentralizowany AWS drugiego poziomu, prawda? Tego rodzaju prosta fizyczna kumulacja jest daleka od prawdziwej inteligencji Web3. Ostatnio poszedłem przeszukać białą księgę i Github Vanar, początkowo z zamiarem szukania problemów, ale odkryłem, że ci ludzie mają całkiem ciekawe pomysły, nie skupiają się na TPS ani na dystrybucji mocy obliczeniowej, lecz na problemie, który wiele publicznych łańcuchów nawet nie zrozumiało: koszty „pamięci” i „wnioskowania” AI na łańcuchu.
Ci, którzy zajmują się technologią, wiedzą, że taki stan jak Ethereum jest z natury zapominalski. Jeśli chcesz, aby agent AI działał na łańcuchu, samo przesłanie modelu na łańcuch nic nie da, gdzie przechowywać ogromne ilości kontekstowych danych generowanych podczas procesu wnioskowania? Przechowywanie na Arweave jest zbyt wolne, a przechowywanie na łańcuchu kosztuje fortunę. Architektura Neutron stworzona przez Vanar sprawiła, że się uśmiechnąłem, to tak, jakby na blockchainie zainstalować hipokamp. Wykorzystując TensorRT do optymalizacji wnioskowania, skomplikowane dane semantyczne są kompresowane do postaci zrozumiałych na łańcuchu Seeds, co oznacza, że agent nie jest „głupcem”, który musi za każdym razem przeliczać wszystko od nowa, ale ma zdolność do taniej, ciągłej pamięci. To sprawia, że te projekty, które wciąż polegają na mostach międzyłańcuchowych, aby połączyć GPT-4, zostają daleko w tyle; pierwsze z nich uczą blockchain myślenia, a drugie maksymalnie są tylko długodystansowym telefonem do AI.
Szczerze mówiąc, obecne doświadczenie ekosystemu jest rzeczywiście jeszcze dość wczesne, zrealizowałem rundę DApp, która wydaje się nieco „opustoszała”, a interakcje interfejsu mają jeszcze błędy; wczoraj ten swap kręcił się na okrągło przez długi czas, ale ta podstawowa logika zamknięta sprawiła, że czuję się pewnie. W porównaniu do tych projektów, które mają błyszczące prezentacje, ale tak naprawdę tylko sprzedają węzły, Vanar wyraźnie stara się budować tę najtrudniejszą warstwę „infrastruktury obliczeniowej”. Jeśli w przyszłości DeFi naprawdę może ewoluować w dynamiczne modele zarządzania ryzykiem napędzane AI, lub jeśli NPC w grach łańcuchowych mogą zyskać autonomiczną świadomość, to fundamenty na pewno będą w łańcuchu, który może natywnie przetwarzać wysoką przepustowość wnioskowania, a nie w tych starych skarbach, które obcinają wydajność, aby dostosować się do EVM. My, którzy prowadzimy badania, nie powinniśmy wciąż skupiać się na krótkoterminowych wahaniach linii K, musimy sprawdzić, czy w repozytorium kodu naprawdę składają klocki, czy budują silniki. #vanar $VANRY
Gdy AI biega po „wiejskich drogach” blockchaina: okrutne notatki z eksperymentu dotyczącego Vanar, kosztów obliczeniowych i tzw. „rodzimości”Patrząc na czas w prawym dolnym rogu ekranu, jest trzecia trzydzieści, taki tryb życia dla nas, którzy borykają się w tym środowisku, jest już normą, zwłaszcza gdy próbujesz uruchomić prawdziwie logiczny agent na blockchainie, frustracja często przychodzi silniej niż senność. W ciągu ostatniego miesiąca prawie przeszukałem wszystkie dokumenty projektów reklamowanych jako „AI public blockchain”, to uczucie przypomina szukanie ściany nośnej wśród wielu wykończonych mieszkań, zewnętrznie błyszczące, pełne narracji i koncepcji, a po wykopaniu okazuje się, że to tylko bańka. Większość projektów, które określają swoje narracje AI, to nic innego jak nałożenie interfejsu API na tradycyjne łańcuchy EVM lub stworzenie nieprzydatnego rynku wynajmu mocy obliczeniowej, taka złożona architektura w moim odczuciu jest wręcz obrazą dla zdecentralizowanej inteligencji. Nie chcę wymieniać nazwisk, ale patrząc na te projekty z wartością rynkową rzędu dziesiątek miliardów, które wciąż opowiadają historię AI, używając logiki sidechain sprzed dwóch lat, to naprawdę zabawne.

Gdy AI biega po „wiejskich drogach” blockchaina: okrutne notatki z eksperymentu dotyczącego Vanar, kosztów obliczeniowych i tzw. „rodzimości”

Patrząc na czas w prawym dolnym rogu ekranu, jest trzecia trzydzieści, taki tryb życia dla nas, którzy borykają się w tym środowisku, jest już normą, zwłaszcza gdy próbujesz uruchomić prawdziwie logiczny agent na blockchainie, frustracja często przychodzi silniej niż senność. W ciągu ostatniego miesiąca prawie przeszukałem wszystkie dokumenty projektów reklamowanych jako „AI public blockchain”, to uczucie przypomina szukanie ściany nośnej wśród wielu wykończonych mieszkań, zewnętrznie błyszczące, pełne narracji i koncepcji, a po wykopaniu okazuje się, że to tylko bańka. Większość projektów, które określają swoje narracje AI, to nic innego jak nałożenie interfejsu API na tradycyjne łańcuchy EVM lub stworzenie nieprzydatnego rynku wynajmu mocy obliczeniowej, taka złożona architektura w moim odczuciu jest wręcz obrazą dla zdecentralizowanej inteligencji. Nie chcę wymieniać nazwisk, ale patrząc na te projekty z wartością rynkową rzędu dziesiątek miliardów, które wciąż opowiadają historię AI, używając logiki sidechain sprzed dwóch lat, to naprawdę zabawne.
Zobacz tłumaczenie
遇到难回答的问题又不说话了。
遇到难回答的问题又不说话了。
Zrezygnuję, aby w pełni poświęcić się badaniu psów rasowych.
Zrezygnuję, aby w pełni poświęcić się badaniu psów rasowych.
Patrząc na obecny spadek XPL, jeśli w sercu nie ma żadnych emocji, to byłoby oszustwem, w końcu prawdziwe pieniądze zostały włożone, a ich wartość zmniejszyła się o prawie 90%. Kto by się nie wkurzył? Ale skoro zdecydowałem się badać ten krąg, nie mogę tylko dawać się ponieść emocjom. Zmuszam się do wyłączenia wykresu K, przeglądam ostatnie commit'y na Githubie @Plasma i dane on-chain, a zauważam coś innego. Cały czas krzyczymy o wielkoskalowych aplikacjach Web3, ale największą przeszkodą nie jest wcale zbyt niska TPS, lecz zbyt wygórowane wymagania, pomyśl, żeby przelać kilka u stabilnych monet, musisz najpierw kupić ETH lub SOL na opłaty, ta logika dla osób spoza kręgów wygląda absurdalnie. Mechanizm Paymaster w podstawach Plasma to chyba najwygodniejsza rzecz, którą ostatnio przetestowałem, nativnie wspiera płatności stabilnymi monetami na opłaty, takie „zero-stratowe” doświadczenie przypomina prawdziwe płatności, znacznie lepiej niż te publiczne łańcuchy, które tylko skupiają się na wydajności. Nie można nie wspomnieć o różnicy w porównaniu z konkurencją, obecne L2 na rynku, chociaż tanie, wciąż mają podzieloną logikę interakcji, podczas gdy Plasma jest w pełni kompatybilna z EVM i stworzyła sieć Bitcoin jako kotwicę, regularnie zapisując stan na BTC. To sprytny ruch, w tej niepewnej sytuacji korzystać z bezpieczeństwa Bitcoina jako wsparcia jest znacznie lepsze niż krzyczeć o konsensusie. Znowu spojrzałem na dane z Maple, TVL puli pożyczkowej SyrupUSDT wynosi zaskakujące 1,1 miliarda dolarów, te dane są nieco przerażające, fundusze instytucjonalne nie są głupie, jeśli w tym miejscu wciąż odważają się na dużą akumulację, oznacza to, że Smart Money ma podstawy co do jej płynności i bezpieczeństwa. Tego rodzaju głosowanie z prawdziwych pieniędzy jest bardziej wiarygodne niż krzyki na Twitterze. Oczywiście, jako poważny badacz, muszę również przelać trochę zimnej wody. Obecne węzły weryfikujące są wciąż zbyt skoncentrowane w rękach zespołu, stopień decentralizacji jest widocznie niski, co zawsze jest ryzykiem. Poza tym ekosystem, poza płatnościami i pożyczkami, jest naprawdę pusty, trudno znaleźć ciekawą Dapp. Ale może to jest pochodna zysków i strat, rynek jest teraz skrajnie pesymistyczny, wszyscy patrzą tylko na ceny i przeklinają, a zapominają o twardych danych, takich jak integracja Rain cards i Oobit z siecią Visa. Zastanawiam się, czy w obszarze płatności można się naprawdę wyróżnić, czy wybierać tych, którzy wciąż opowiadają historie, czy tych, którzy już położyli drogę do świata offline? #plasma $XPL
Patrząc na obecny spadek XPL, jeśli w sercu nie ma żadnych emocji, to byłoby oszustwem, w końcu prawdziwe pieniądze zostały włożone, a ich wartość zmniejszyła się o prawie 90%. Kto by się nie wkurzył? Ale skoro zdecydowałem się badać ten krąg, nie mogę tylko dawać się ponieść emocjom. Zmuszam się do wyłączenia wykresu K, przeglądam ostatnie commit'y na Githubie @Plasma i dane on-chain, a zauważam coś innego. Cały czas krzyczymy o wielkoskalowych aplikacjach Web3, ale największą przeszkodą nie jest wcale zbyt niska TPS, lecz zbyt wygórowane wymagania, pomyśl, żeby przelać kilka u stabilnych monet, musisz najpierw kupić ETH lub SOL na opłaty, ta logika dla osób spoza kręgów wygląda absurdalnie. Mechanizm Paymaster w podstawach Plasma to chyba najwygodniejsza rzecz, którą ostatnio przetestowałem, nativnie wspiera płatności stabilnymi monetami na opłaty, takie „zero-stratowe” doświadczenie przypomina prawdziwe płatności, znacznie lepiej niż te publiczne łańcuchy, które tylko skupiają się na wydajności.
Nie można nie wspomnieć o różnicy w porównaniu z konkurencją, obecne L2 na rynku, chociaż tanie, wciąż mają podzieloną logikę interakcji, podczas gdy Plasma jest w pełni kompatybilna z EVM i stworzyła sieć Bitcoin jako kotwicę, regularnie zapisując stan na BTC. To sprytny ruch, w tej niepewnej sytuacji korzystać z bezpieczeństwa Bitcoina jako wsparcia jest znacznie lepsze niż krzyczeć o konsensusie. Znowu spojrzałem na dane z Maple, TVL puli pożyczkowej SyrupUSDT wynosi zaskakujące 1,1 miliarda dolarów, te dane są nieco przerażające, fundusze instytucjonalne nie są głupie, jeśli w tym miejscu wciąż odważają się na dużą akumulację, oznacza to, że Smart Money ma podstawy co do jej płynności i bezpieczeństwa. Tego rodzaju głosowanie z prawdziwych pieniędzy jest bardziej wiarygodne niż krzyki na Twitterze.
Oczywiście, jako poważny badacz, muszę również przelać trochę zimnej wody. Obecne węzły weryfikujące są wciąż zbyt skoncentrowane w rękach zespołu, stopień decentralizacji jest widocznie niski, co zawsze jest ryzykiem. Poza tym ekosystem, poza płatnościami i pożyczkami, jest naprawdę pusty, trudno znaleźć ciekawą Dapp. Ale może to jest pochodna zysków i strat, rynek jest teraz skrajnie pesymistyczny, wszyscy patrzą tylko na ceny i przeklinają, a zapominają o twardych danych, takich jak integracja Rain cards i Oobit z siecią Visa. Zastanawiam się, czy w obszarze płatności można się naprawdę wyróżnić, czy wybierać tych, którzy wciąż opowiadają historie, czy tych, którzy już położyli drogę do świata offline? #plasma $XPL
Zobacz tłumaczenie
​支付原语的暴力回归:在 Rollup 垄断下,我对 Plasma 架构、Reth 客户端与确定性终局的逆向审视在Layer 2扩容方案也就是Rollup几乎统治了以太坊生态话语权的当下,我又回过头去啃了一遍@Plasma 的白皮书和最新的技术文档,这种感觉多少有点像是在满大街跑满电动爹的时代,突然在一个不起眼的车库里发现了一台经过魔改的大排量自吸燃油车,既显得格格不入,又透着一股子让人着迷的机械暴力美学。我看很多人都在聊Plasma的币价或者是那个看起来有点吓人的解锁盘子,但作为一个喜欢在该死的链上交互细节里找茬的人,我更想聊聊我在测试网和早期主网环境里折腾这几天下来的真实感受,特别是当把视线从那些宏大的叙事上移开,真正去跑一跑它的节点,发几笔交易,甚至去对比一下它和现在市面上那些被吹上天的“高性能链”到底有什么本质的区别时,很多有意思的细节才慢慢浮现出来。 说实话,最开始我对Plasma这个新版本的架构是带着有色眼镜的,毕竟上一轮周期的老人谁没被“Plasma扩容方案”那个著名的退出机制(Exit Game)折磨过?那种把用户资金安全完全寄托在必须时刻在线盯着挑战期的设计,简直就是反人性的巅峰,导致后来Optimistic Rollup和ZK Rollup崛起时,大家几乎是毫无留恋地把Plasma抛进了故纸堆。但这次不一样,当你真正深入到这个基于Reth构建的执行层内部时,你会发现这帮人选了一条极窄的路。他们没打算做一个什么都能干的通用型计算平台,而是极其偏执地把技能点全点在了“支付原语”和“确定性”上。我试着同步了一下节点,Reth客户端给我的反馈是非常直观的——轻快。如果你跑过Geth节点,甚至是被Bloat到爆炸的Solana验证者节点,你就能体会到这种Rust写出来的东西在内存管理和同步效率上有多恐怖,这不仅仅是代码写得漂不漂亮的问题,而是这种底层客户端的选择直接决定了这条链在极端高并发状况下的鲁棒性。 我在链上做压测的时候发现了一个很有趣的现象,也是我现在对很多L2颇有微词的地方。现在的L2看似TPS很高,但那个所谓的“即时确认”其实是Soft Finality,实际上还是得等排序器(Sequencer)把数据打包扔到L1上才算完事,中间那个时间差里,排序器要想作恶或者单纯只是宕机,用户除了干瞪眼什么都做不了。而Plasma这次搞的这个BFT共识,虽然名字听起来有点复古,但在实际体验中,那种交易发出去几乎瞬间就能获得确定性Finality的感觉,真的太像Web2的支付体验了。这让我想到Solana,Solana快是快,但那种时不时就给你来个全网停机维护的“特色”真的让人心里没底,特别是做支付业务,你不可能跟商家说“不好意思,现在链停机了,您的咖啡钱得等两小时”。Plasma这种牺牲了一部分去中心化极致追求(指节点数量可能不如以太坊主网那么庞大)来换取极致BFT确认速度的思路,在支付这个垂直赛道上,逻辑是完全自洽的。 再来说说那个被吹得很神的Gas Abstraction(Gas抽象),也就是用稳定币直接付Gas费这事。市面上很多做账户抽象(AA)的钱包都在推这个概念,但那是合约层面的模拟,中间经过了Paymaster的中继,不仅逻辑复杂,还多了一层信任成本和潜在的故障点。我在Plasma上操作的时候,这种体验是原生的,协议层直接支持。这意味着我只要钱包里有USDT或者XPL,我就能动,不需要像在Arbitrum或Optimism上那样,为了转那一两百U,还得专门留个十几刀的ETH当过路费,一旦ETH没了,整个账户就跟废了一样动弹不得。这种“原生感”非常重要,它消除了用户在使用加密货币进行日常支付时最大的心理阻碍。我对比了下Celo,虽然Celo很早也在做类似的事,但Celo的生态割裂感太强,兼容性也没做好,而Plasma直接骑在EVM的脖子上,既保留了EVM的开发惯性,又把支付体验这一块单独拎出来做了魔改,这一招确实挺聪明的。 不过,技术上的自洽不代表没有隐患。我在翻阅技术文档和社区讨论时,发现大家对Data Availability(DA)也就是数据可用性的讨论还是有点避重就轻。虽然现在的方案不再像当年那样需要用户下载所有数据来做欺诈证明,但作为一条独立的L1,它的安全性天花板依然取决于它自己的验证者集合,而不是以太坊。这就带来一个很现实的问题:如果XPL的价格撑不住,验证者的作恶成本会不会变得过低?现在的经济模型设计里,把大量的代币分配给了生态激励和流动性挖矿,这在短期内肯定能把TVL拉起来,我看链上数据也确实在增长,但这种靠“补贴”维持的繁荣能持续多久?一旦补贴退坡,那些撸毛党和雇佣兵资本撤离的速度绝对比谁都快。这点上我还是比较担心的,毕竟我们在上一轮DeFi Summer里见多了这种死法。 竞品方面,除了那些通用的L2,我觉得Plasma真正要面对的对手其实是Monad这种正在路上的并行EVM巨兽,以及像Tron这样虽然土但垄断了USDT转账市场的霸主。Tron虽然被我们这些自诩为技术原教旨主义者的人看不起,但人家确实稳,转账确实便宜。Plasma要想在这个红海里杀出来,光靠技术上的“优雅”是没用的,Reth再快,BFT再稳,如果用户习惯了Tron地址里那个T开头的字符串,迁移成本是巨大的。而且我发现Plasma在跨链互操作性上目前的体验还比较生涩,虽然官方在推各种Bridge,但实际操作下来,资金进出的摩擦成本还是偏高,特别是大额资金的跨链,滑点和等待时间都还有优化的空间。如果未来不能做到像CEX提币那样丝滑,想要大规模取代现有的支付网络还是挺难的。 还有一个让我觉得比较讽刺的点是隐私。在这个大家都喊着要合规、要拥抱监管的时代,Plasma在底层其实预留了一些隐私交易的接口(Confidential Transactions),这有点像Pederson Commitments那一套东西。我在链上浏览器里扒拉数据的时候,偶尔能看到一些结构很奇怪的交易,我不确定这是不是官方在测试相关功能,如果是真的,那这把双刃剑可就太锋利了。一方面,商业支付绝对需要隐私,谁也不想自己的工资单或者供应链货款被全世界围观;但另一方面,这也绝对是监管机构的眼中钉。如何在“抗审查”和“可监管”之间走钢丝,可能是技术之外最大的挑战。现在的设计似乎是想引入类似View Keys的机制,给监管方开个后门,同时对公众保持匿名,这思路听着很美好,但工程实现上极容易出Bug,一旦隐私泄露,那就是灭顶之灾。 这几天沉浸式体验下来,我最大的感觉就是Plasma这帮人是真懂现在以太坊生态的痛点的。他们没有去跟风搞什么模块化(Modular)区块链的套娃游戏,也没有去卷什么ZK-EVM的证明速度,而是回到了最朴素的“价值转移”这个原点。现在的区块链世界太浮躁了,大家都想做世界计算机,都想承载几亿用户的社交网络,结果连最基本的转账体验都没做到完美。Plasma给我一种“反璞归真”的感觉,它就像是一把瑞士军刀,没有那么花哨的功能,但那把主刀磨得足够快,足够锋利。 当然,作为用户,我也必须吐槽一下现在的钱包适配问题。虽然说是EVM兼容,但很多主流钱包在切到Plasma网络时,对于代币显示的逻辑还是经常出Bug,好几次我明明转进去了USDT,钱包里就是显示不出来,得手动添加合约地址,甚至有时候得清除缓存才能刷出来。这种前端的小毛病虽然不致命,但极其搞心态,特别是在你急着确认一笔交易的时候。还有就是区块浏览器,目前的功能虽然够用,但在解析复杂合约交互,特别是涉及到它那个原生Paymaster逻辑的交易时,经常显示得一塌糊涂,全是一堆乱码一样的Input Data,根本看不出Gas到底是谁付的,付了多少。对于开发者和深究党来说,这简直就是灾难。 再深入聊聊那个让人又爱又恨的Rust。现在公链圈子里似乎有个鄙视链,用Rust写的就是比用Go写的牛逼,Plasma全是Rust写的,确实在性能压榨上做到了极致。但我也不得不泼盆冷水,Rust的学习曲线导致了开发者社区的门槛变高了。现在的EVM生态之所以繁荣,是因为Solidity简单,是个程序员都能写两行。Plasma虽然支持EVM,但如果要在底层做一些深度的定制开发,或者利用它那些高性能的特性,你就得去啃Rust。我看GitHub上的活跃度,核心贡献者就那么几个面孔,虽然提交代码的频率很高,质量也不错,但这种“精英开发模式”能不能撑得起一个庞大的生态,我是存疑的。一旦这几个核心大牛哪天不干了,或者社区出现了分叉,后面的人能不能接得住这套复杂的架构,真的是个未知数。 回过头看,Plasma这次的回归,更像是一次对Layer 1价值的重新确认。在L2们为了争夺以太坊正统性打得头破血流的时候,Plasma跳出来说:“哥们不陪你们玩了,我自己搞个专门做支付的L1。”这种勇气是值得佩服的。它放弃了通用计算的星辰大海,选择了支付结算的这一亩三分地。但这块地,恰恰是区块链最原始、最核心、也是目前现金流最充沛的领域。如果它能把稳定币支付的Gas磨损降到几乎可以忽略不计,同时保持秒级的确定性,那它确实有可能成为那个连接Web2和Web3的隐形桥梁。 现在的币圈,大家都在找下一个百倍叙事,AI+Crypto也好,DePin也好,都听着很性感。但Plasma这种看起来“枯燥”的基础设施重构,反倒让我觉得更踏实。它没有什么花里胡哨的概念,就是在那死磕TPS,死磕延迟,死磕数据库读写性能。这种工程师思维在现在的市场环境下显得有点笨拙,甚至有点不合群。但我喜欢这种笨拙,因为所有的摩天大楼,最后都得建在这些不起眼的泥瓦匠铺好的地基上。 最后,还是得提醒一下,虽然技术看着不错,但千万别对那个代币经济模型掉以轻心。我看那个释放曲线,早期投资人和团队的筹码还是太集中了。现在的流动性就像是虚胖,看着热闹,一针扎下去可能全是水。如果你是冲着技术去体验的,那我强烈建议你去跑跑节点,去读读那份写得确实很漂亮的代码;但如果你是冲着炒币去的,那就盯着那个解锁日历看吧,别被技术术语忽悠瘸了。在这个圈子里,代码不会骗人,但K线会。Plasma是不是那个最终的答案我不知道,但它绝对是目前我在支付赛道上看到的最像样、最能打的一个尝试。至于能不能成,就看市场是更在乎技术的真理,还是更在乎资本的故事了。反正我会留一部分仓位在XPL上,不是因为信仰,纯粹是作为这张通往“支付终局”门票的押注,哪怕最后证明我是错的,至少我也见证了一个技术团队是如何试图用代码去对抗这个世界的熵增的。这就够了,不是吗?#plasma $XPL

​支付原语的暴力回归:在 Rollup 垄断下,我对 Plasma 架构、Reth 客户端与确定性终局的逆向审视

在Layer 2扩容方案也就是Rollup几乎统治了以太坊生态话语权的当下,我又回过头去啃了一遍@Plasma 的白皮书和最新的技术文档,这种感觉多少有点像是在满大街跑满电动爹的时代,突然在一个不起眼的车库里发现了一台经过魔改的大排量自吸燃油车,既显得格格不入,又透着一股子让人着迷的机械暴力美学。我看很多人都在聊Plasma的币价或者是那个看起来有点吓人的解锁盘子,但作为一个喜欢在该死的链上交互细节里找茬的人,我更想聊聊我在测试网和早期主网环境里折腾这几天下来的真实感受,特别是当把视线从那些宏大的叙事上移开,真正去跑一跑它的节点,发几笔交易,甚至去对比一下它和现在市面上那些被吹上天的“高性能链”到底有什么本质的区别时,很多有意思的细节才慢慢浮现出来。
说实话,最开始我对Plasma这个新版本的架构是带着有色眼镜的,毕竟上一轮周期的老人谁没被“Plasma扩容方案”那个著名的退出机制(Exit Game)折磨过?那种把用户资金安全完全寄托在必须时刻在线盯着挑战期的设计,简直就是反人性的巅峰,导致后来Optimistic Rollup和ZK Rollup崛起时,大家几乎是毫无留恋地把Plasma抛进了故纸堆。但这次不一样,当你真正深入到这个基于Reth构建的执行层内部时,你会发现这帮人选了一条极窄的路。他们没打算做一个什么都能干的通用型计算平台,而是极其偏执地把技能点全点在了“支付原语”和“确定性”上。我试着同步了一下节点,Reth客户端给我的反馈是非常直观的——轻快。如果你跑过Geth节点,甚至是被Bloat到爆炸的Solana验证者节点,你就能体会到这种Rust写出来的东西在内存管理和同步效率上有多恐怖,这不仅仅是代码写得漂不漂亮的问题,而是这种底层客户端的选择直接决定了这条链在极端高并发状况下的鲁棒性。
我在链上做压测的时候发现了一个很有趣的现象,也是我现在对很多L2颇有微词的地方。现在的L2看似TPS很高,但那个所谓的“即时确认”其实是Soft Finality,实际上还是得等排序器(Sequencer)把数据打包扔到L1上才算完事,中间那个时间差里,排序器要想作恶或者单纯只是宕机,用户除了干瞪眼什么都做不了。而Plasma这次搞的这个BFT共识,虽然名字听起来有点复古,但在实际体验中,那种交易发出去几乎瞬间就能获得确定性Finality的感觉,真的太像Web2的支付体验了。这让我想到Solana,Solana快是快,但那种时不时就给你来个全网停机维护的“特色”真的让人心里没底,特别是做支付业务,你不可能跟商家说“不好意思,现在链停机了,您的咖啡钱得等两小时”。Plasma这种牺牲了一部分去中心化极致追求(指节点数量可能不如以太坊主网那么庞大)来换取极致BFT确认速度的思路,在支付这个垂直赛道上,逻辑是完全自洽的。
再来说说那个被吹得很神的Gas Abstraction(Gas抽象),也就是用稳定币直接付Gas费这事。市面上很多做账户抽象(AA)的钱包都在推这个概念,但那是合约层面的模拟,中间经过了Paymaster的中继,不仅逻辑复杂,还多了一层信任成本和潜在的故障点。我在Plasma上操作的时候,这种体验是原生的,协议层直接支持。这意味着我只要钱包里有USDT或者XPL,我就能动,不需要像在Arbitrum或Optimism上那样,为了转那一两百U,还得专门留个十几刀的ETH当过路费,一旦ETH没了,整个账户就跟废了一样动弹不得。这种“原生感”非常重要,它消除了用户在使用加密货币进行日常支付时最大的心理阻碍。我对比了下Celo,虽然Celo很早也在做类似的事,但Celo的生态割裂感太强,兼容性也没做好,而Plasma直接骑在EVM的脖子上,既保留了EVM的开发惯性,又把支付体验这一块单独拎出来做了魔改,这一招确实挺聪明的。
不过,技术上的自洽不代表没有隐患。我在翻阅技术文档和社区讨论时,发现大家对Data Availability(DA)也就是数据可用性的讨论还是有点避重就轻。虽然现在的方案不再像当年那样需要用户下载所有数据来做欺诈证明,但作为一条独立的L1,它的安全性天花板依然取决于它自己的验证者集合,而不是以太坊。这就带来一个很现实的问题:如果XPL的价格撑不住,验证者的作恶成本会不会变得过低?现在的经济模型设计里,把大量的代币分配给了生态激励和流动性挖矿,这在短期内肯定能把TVL拉起来,我看链上数据也确实在增长,但这种靠“补贴”维持的繁荣能持续多久?一旦补贴退坡,那些撸毛党和雇佣兵资本撤离的速度绝对比谁都快。这点上我还是比较担心的,毕竟我们在上一轮DeFi Summer里见多了这种死法。
竞品方面,除了那些通用的L2,我觉得Plasma真正要面对的对手其实是Monad这种正在路上的并行EVM巨兽,以及像Tron这样虽然土但垄断了USDT转账市场的霸主。Tron虽然被我们这些自诩为技术原教旨主义者的人看不起,但人家确实稳,转账确实便宜。Plasma要想在这个红海里杀出来,光靠技术上的“优雅”是没用的,Reth再快,BFT再稳,如果用户习惯了Tron地址里那个T开头的字符串,迁移成本是巨大的。而且我发现Plasma在跨链互操作性上目前的体验还比较生涩,虽然官方在推各种Bridge,但实际操作下来,资金进出的摩擦成本还是偏高,特别是大额资金的跨链,滑点和等待时间都还有优化的空间。如果未来不能做到像CEX提币那样丝滑,想要大规模取代现有的支付网络还是挺难的。
还有一个让我觉得比较讽刺的点是隐私。在这个大家都喊着要合规、要拥抱监管的时代,Plasma在底层其实预留了一些隐私交易的接口(Confidential Transactions),这有点像Pederson Commitments那一套东西。我在链上浏览器里扒拉数据的时候,偶尔能看到一些结构很奇怪的交易,我不确定这是不是官方在测试相关功能,如果是真的,那这把双刃剑可就太锋利了。一方面,商业支付绝对需要隐私,谁也不想自己的工资单或者供应链货款被全世界围观;但另一方面,这也绝对是监管机构的眼中钉。如何在“抗审查”和“可监管”之间走钢丝,可能是技术之外最大的挑战。现在的设计似乎是想引入类似View Keys的机制,给监管方开个后门,同时对公众保持匿名,这思路听着很美好,但工程实现上极容易出Bug,一旦隐私泄露,那就是灭顶之灾。
这几天沉浸式体验下来,我最大的感觉就是Plasma这帮人是真懂现在以太坊生态的痛点的。他们没有去跟风搞什么模块化(Modular)区块链的套娃游戏,也没有去卷什么ZK-EVM的证明速度,而是回到了最朴素的“价值转移”这个原点。现在的区块链世界太浮躁了,大家都想做世界计算机,都想承载几亿用户的社交网络,结果连最基本的转账体验都没做到完美。Plasma给我一种“反璞归真”的感觉,它就像是一把瑞士军刀,没有那么花哨的功能,但那把主刀磨得足够快,足够锋利。
当然,作为用户,我也必须吐槽一下现在的钱包适配问题。虽然说是EVM兼容,但很多主流钱包在切到Plasma网络时,对于代币显示的逻辑还是经常出Bug,好几次我明明转进去了USDT,钱包里就是显示不出来,得手动添加合约地址,甚至有时候得清除缓存才能刷出来。这种前端的小毛病虽然不致命,但极其搞心态,特别是在你急着确认一笔交易的时候。还有就是区块浏览器,目前的功能虽然够用,但在解析复杂合约交互,特别是涉及到它那个原生Paymaster逻辑的交易时,经常显示得一塌糊涂,全是一堆乱码一样的Input Data,根本看不出Gas到底是谁付的,付了多少。对于开发者和深究党来说,这简直就是灾难。
再深入聊聊那个让人又爱又恨的Rust。现在公链圈子里似乎有个鄙视链,用Rust写的就是比用Go写的牛逼,Plasma全是Rust写的,确实在性能压榨上做到了极致。但我也不得不泼盆冷水,Rust的学习曲线导致了开发者社区的门槛变高了。现在的EVM生态之所以繁荣,是因为Solidity简单,是个程序员都能写两行。Plasma虽然支持EVM,但如果要在底层做一些深度的定制开发,或者利用它那些高性能的特性,你就得去啃Rust。我看GitHub上的活跃度,核心贡献者就那么几个面孔,虽然提交代码的频率很高,质量也不错,但这种“精英开发模式”能不能撑得起一个庞大的生态,我是存疑的。一旦这几个核心大牛哪天不干了,或者社区出现了分叉,后面的人能不能接得住这套复杂的架构,真的是个未知数。
回过头看,Plasma这次的回归,更像是一次对Layer 1价值的重新确认。在L2们为了争夺以太坊正统性打得头破血流的时候,Plasma跳出来说:“哥们不陪你们玩了,我自己搞个专门做支付的L1。”这种勇气是值得佩服的。它放弃了通用计算的星辰大海,选择了支付结算的这一亩三分地。但这块地,恰恰是区块链最原始、最核心、也是目前现金流最充沛的领域。如果它能把稳定币支付的Gas磨损降到几乎可以忽略不计,同时保持秒级的确定性,那它确实有可能成为那个连接Web2和Web3的隐形桥梁。
现在的币圈,大家都在找下一个百倍叙事,AI+Crypto也好,DePin也好,都听着很性感。但Plasma这种看起来“枯燥”的基础设施重构,反倒让我觉得更踏实。它没有什么花里胡哨的概念,就是在那死磕TPS,死磕延迟,死磕数据库读写性能。这种工程师思维在现在的市场环境下显得有点笨拙,甚至有点不合群。但我喜欢这种笨拙,因为所有的摩天大楼,最后都得建在这些不起眼的泥瓦匠铺好的地基上。
最后,还是得提醒一下,虽然技术看着不错,但千万别对那个代币经济模型掉以轻心。我看那个释放曲线,早期投资人和团队的筹码还是太集中了。现在的流动性就像是虚胖,看着热闹,一针扎下去可能全是水。如果你是冲着技术去体验的,那我强烈建议你去跑跑节点,去读读那份写得确实很漂亮的代码;但如果你是冲着炒币去的,那就盯着那个解锁日历看吧,别被技术术语忽悠瘸了。在这个圈子里,代码不会骗人,但K线会。Plasma是不是那个最终的答案我不知道,但它绝对是目前我在支付赛道上看到的最像样、最能打的一个尝试。至于能不能成,就看市场是更在乎技术的真理,还是更在乎资本的故事了。反正我会留一部分仓位在XPL上,不是因为信仰,纯粹是作为这张通往“支付终局”门票的押注,哪怕最后证明我是错的,至少我也见证了一个技术团队是如何试图用代码去对抗这个世界的熵增的。这就够了,不是吗?#plasma $XPL
【Od entropii behawioralnej do modelu wykonania: dlaczego DBTI jest MBTI ery handlu AI?】Rynek kryptowalut jest zasadniczo wysokowymiarowym „sandboxem gier”. Przyczyny strat inwestorów indywidualnych często są przypisywane różnicy informacyjnej, ale z perspektywy finansów behawioralnych kluczowym czynnikiem jest: długoterminowe niedopasowanie pomiędzy zachowaniem handlowym a podstawową strukturą osobowości. Osoby niecierpliwe są zmuszone do długoterminowego inwestowania, a osoby powolne do ślepego handlu wysokiej częstotliwości — taka „reakcja odrzucenia” na poziomie wykonawczym prowadzi do załamania dyscypliny większości. 1. DBTI: ewolucja od „subiektywnej ankiety” do „uczenia się przez wzmacnianie (IRL)” W odróżnieniu od tradycyjnych testów psychologicznych, Calculus Finance (https://x.com/CalculusFinance) promuje DBTI (system zdecentralizowanej osobowości handlowej), który stosuje nienaładowany model wydobywania danych:

【Od entropii behawioralnej do modelu wykonania: dlaczego DBTI jest MBTI ery handlu AI?】

Rynek kryptowalut jest zasadniczo wysokowymiarowym „sandboxem gier”. Przyczyny strat inwestorów indywidualnych często są przypisywane różnicy informacyjnej, ale z perspektywy finansów behawioralnych kluczowym czynnikiem jest: długoterminowe niedopasowanie pomiędzy zachowaniem handlowym a podstawową strukturą osobowości.
Osoby niecierpliwe są zmuszone do długoterminowego inwestowania, a osoby powolne do ślepego handlu wysokiej częstotliwości — taka „reakcja odrzucenia” na poziomie wykonawczym prowadzi do załamania dyscypliny większości.
1. DBTI: ewolucja od „subiektywnej ankiety” do „uczenia się przez wzmacnianie (IRL)”
W odróżnieniu od tradycyjnych testów psychologicznych, Calculus Finance (https://x.com/CalculusFinance) promuje DBTI (system zdecentralizowanej osobowości handlowej), który stosuje nienaładowany model wydobywania danych:
Szczerze mówiąc, po zobaczeniu tylu łańcuchów L1, które udają się pod sztandarem AI, większość nadal korzysta z brutalnej logiki „wciśnięcia słonia do lodówki”, wymuszając podłączenie interfejsu modelu do łańcucha i nazywając to inteligencją. Ostatnio głęboko doświadczyłem protokołu V23 dla @Vanar , ta architektura rzeczywiście ma coś w sobie, nie jest jak te konkurencyjne produkty, które tylko wiedzą, jak układać TPS, na przykład Solana, która jest szybka, ale wobec AI Agentów potrzebujących ciągłej pamięci stanu i złożonego wnioskowania, jej podstawowa logika wciąż wydaje się być trochę „zapomniana”. Najbardziej przyciąga mnie w Vanarze to, że w jego pięciowarstwowej strukturze znajduje się warstwa Neutron, która bezpośrednio wprowadza pamięć semantyczną i trwały kontekst do infrastruktury, a nie jak wiele rozwiązań drugiego poziomu, które muszą korzystać z mostów międzyłańcuchowych, aby „pożyczyć mózg”. Jednak w trakcie rzeczywistej interakcji zauważyłem kilka irytujących szczegółów. Na przykład, obecna odpowiedź węzłów w ekstremalnie wysokiej częstotliwości handlu czasami powoduje opóźnienia w wyszukiwaniu danych, co dla scenariuszy z naciskiem na PayFi i wnioskowanie w czasie rzeczywistym nadal wymaga dopracowania stabilności. W porównaniu do sąsiednich projektów, które od razu chwalą się współpracą z NVIDIA, podczas gdy w rzeczywistości nawet nie opanowały przyspieszenia CUDA, działania Vanar po dołączeniu do planu Inception wydają się być znacznie bardziej stonowane, czasami wręcz frustrująco stonowane. Obecna logika przechwytywania tokenów zmieniła się, nie jest już czysto wydatkiem na gaz, lecz bardziej przypomina bilet na subskrypcję usług AI, ta zmiana paradygmatu rzeczywiście jest znacznie bardziej zaawansowana niż prosta spekulacja tokenizacją mocy obliczeniowej. Jeśli w przyszłości uda się zintegrować Google Cloud w bardziej bezproblemowy sposób, unikając zawirowań związanych z zarządzaniem kluczami prywatnymi, to ta „inteligentna infrastruktura” naprawdę mogłaby udowodnić, że potrafi przejść od wartości Web2 do Web3. Oczywiście, teraz mówienie, że może całkowicie zrewolucjonizować tradycyjne łańcuchy, jest jeszcze zbyt wcześnie, w końcu budowa ekosystemu nie polega tylko na technicznej architekturze, a to, czy potrafi przyjąć kolejną falę wybuchu AI, będzie zależało od tego, czy w rzeczywistości na sieci testowej Vanguard potrafi wytrzymać presję. #vanar $VANRY
Szczerze mówiąc, po zobaczeniu tylu łańcuchów L1, które udają się pod sztandarem AI, większość nadal korzysta z brutalnej logiki „wciśnięcia słonia do lodówki”, wymuszając podłączenie interfejsu modelu do łańcucha i nazywając to inteligencją. Ostatnio głęboko doświadczyłem protokołu V23 dla @Vanarchain , ta architektura rzeczywiście ma coś w sobie, nie jest jak te konkurencyjne produkty, które tylko wiedzą, jak układać TPS, na przykład Solana, która jest szybka, ale wobec AI Agentów potrzebujących ciągłej pamięci stanu i złożonego wnioskowania, jej podstawowa logika wciąż wydaje się być trochę „zapomniana”. Najbardziej przyciąga mnie w Vanarze to, że w jego pięciowarstwowej strukturze znajduje się warstwa Neutron, która bezpośrednio wprowadza pamięć semantyczną i trwały kontekst do infrastruktury, a nie jak wiele rozwiązań drugiego poziomu, które muszą korzystać z mostów międzyłańcuchowych, aby „pożyczyć mózg”.
Jednak w trakcie rzeczywistej interakcji zauważyłem kilka irytujących szczegółów. Na przykład, obecna odpowiedź węzłów w ekstremalnie wysokiej częstotliwości handlu czasami powoduje opóźnienia w wyszukiwaniu danych, co dla scenariuszy z naciskiem na PayFi i wnioskowanie w czasie rzeczywistym nadal wymaga dopracowania stabilności. W porównaniu do sąsiednich projektów, które od razu chwalą się współpracą z NVIDIA, podczas gdy w rzeczywistości nawet nie opanowały przyspieszenia CUDA, działania Vanar po dołączeniu do planu Inception wydają się być znacznie bardziej stonowane, czasami wręcz frustrująco stonowane. Obecna logika przechwytywania tokenów zmieniła się, nie jest już czysto wydatkiem na gaz, lecz bardziej przypomina bilet na subskrypcję usług AI, ta zmiana paradygmatu rzeczywiście jest znacznie bardziej zaawansowana niż prosta spekulacja tokenizacją mocy obliczeniowej. Jeśli w przyszłości uda się zintegrować Google Cloud w bardziej bezproblemowy sposób, unikając zawirowań związanych z zarządzaniem kluczami prywatnymi, to ta „inteligentna infrastruktura” naprawdę mogłaby udowodnić, że potrafi przejść od wartości Web2 do Web3. Oczywiście, teraz mówienie, że może całkowicie zrewolucjonizować tradycyjne łańcuchy, jest jeszcze zbyt wcześnie, w końcu budowa ekosystemu nie polega tylko na technicznej architekturze, a to, czy potrafi przyjąć kolejną falę wybuchu AI, będzie zależało od tego, czy w rzeczywistości na sieci testowej Vanguard potrafi wytrzymać presję.
#vanar $VANRY
Nie skupiaj się już na TPS: w kodzie Vanar zobaczyłem, że agenci AI naprawdę potrzebują pamięci i duszyOstatnie kilka tygodni na rynku było tak nerwowych, że nie mogłem się skupić na pisaniu kodu; cały ekran zapełniony był informacjami o finansowaniu „AI+Crypto” i projektami, które nie mają nawet ukończonych białych ksiąg. Prawie dałem się ponieść tej emocji, myśląc, że wystarczy, że będzie to łańcuch, a jeśli nałożę na niego powłokę LLM, to wzleci. Aż do wczoraj w nocy, by zweryfikować pomysł na międzyłańcuchowego agenta, musiałem z determinacją przejrzeć kilka tzw. dokumentów AI publicznych łańcuchów, a w końcu zatrzymałem się przed diagramem architektury Vanar. Szczerze mówiąc, na początku podszedłem do tego z nastawieniem na szukanie problemów, bo w tej branży widziałem wiele projektów, które odważnie nazywają się „rewolucyjne”, po prostu pakując elementy Web2 w nowy sposób, ale kiedy naprawdę zagłębiłem się w podstawową logikę @Vanar Vanar, szczególnie widząc, jak obsługuje dane (Neutron) i weryfikację wnioskowania (Kaion), moja arogancja jako dewelopera została zredukowana o połowę. Obecny rynek publicznych łańcuchów utknął w niezwykle nudnym błędnym kole; wszyscy szaleńczo rywalizują o TPS, ile transakcji można przetworzyć na sekundę, jakby zwiększenie przepustowości sprawiło, że AI będzie mogło działać na blockchainie, ale to całkowicie fałszywa logika.

Nie skupiaj się już na TPS: w kodzie Vanar zobaczyłem, że agenci AI naprawdę potrzebują pamięci i duszy

Ostatnie kilka tygodni na rynku było tak nerwowych, że nie mogłem się skupić na pisaniu kodu; cały ekran zapełniony był informacjami o finansowaniu „AI+Crypto” i projektami, które nie mają nawet ukończonych białych ksiąg. Prawie dałem się ponieść tej emocji, myśląc, że wystarczy, że będzie to łańcuch, a jeśli nałożę na niego powłokę LLM, to wzleci. Aż do wczoraj w nocy, by zweryfikować pomysł na międzyłańcuchowego agenta, musiałem z determinacją przejrzeć kilka tzw. dokumentów AI publicznych łańcuchów, a w końcu zatrzymałem się przed diagramem architektury Vanar. Szczerze mówiąc, na początku podszedłem do tego z nastawieniem na szukanie problemów, bo w tej branży widziałem wiele projektów, które odważnie nazywają się „rewolucyjne”, po prostu pakując elementy Web2 w nowy sposób, ale kiedy naprawdę zagłębiłem się w podstawową logikę @Vanarchain Vanar, szczególnie widząc, jak obsługuje dane (Neutron) i weryfikację wnioskowania (Kaion), moja arogancja jako dewelopera została zredukowana o połowę. Obecny rynek publicznych łańcuchów utknął w niezwykle nudnym błędnym kole; wszyscy szaleńczo rywalizują o TPS, ile transakcji można przetworzyć na sekundę, jakby zwiększenie przepustowości sprawiło, że AI będzie mogło działać na blockchainie, ale to całkowicie fałszywa logika.
Nie lubię używać takich słów jak „pewne zyski” czy „muszą wzrosnąć”. Ale zwracam uwagę na trzy rzeczy: czy to jest oficjalna strona, czy to jest główny minerał, czy został wcześniej obstawiony przez profesjonalne instytucje. miniARTX dzisiaj oficjalnie rusza w sieci, i umieszcza dzieło Fuyuan Zhou „Coral Realm” $CRL w głównym minerał; artysta jeszcze nie ukończył studiów, a galeria już się ściga; przewidywana wartość dzieła wzrośnie 4–5 razy, a do tego dochodzi mechanizm 14-krotności. „Rozpoczęcie na wysokim poziomie, bez niskiej ceny próbnej” to struktura, która najbardziej zyskuje. Reszty nie muszę za bardzo tłumaczyć. Dziś wieczorem $CRL rozpoczyna subskrypcję, nie można tego przegapić! #Ultiland $ARTX {alpha}(560x8105743e8a19c915a604d7d9e7aa3a060a4c2c32) #miniARTX #ARToken
Nie lubię używać takich słów jak „pewne zyski” czy „muszą wzrosnąć”.
Ale zwracam uwagę na trzy rzeczy: czy to jest oficjalna strona, czy to jest główny minerał, czy został wcześniej obstawiony przez profesjonalne instytucje.
miniARTX dzisiaj oficjalnie rusza w sieci, i umieszcza dzieło Fuyuan Zhou „Coral Realm” $CRL w głównym minerał;
artysta jeszcze nie ukończył studiów, a galeria już się ściga; przewidywana wartość dzieła wzrośnie 4–5 razy, a do tego dochodzi mechanizm 14-krotności.
„Rozpoczęcie na wysokim poziomie, bez niskiej ceny próbnej” to struktura, która najbardziej zyskuje.
Reszty nie muszę za bardzo tłumaczyć.
Dziś wieczorem $CRL rozpoczyna subskrypcję, nie można tego przegapić!
#Ultiland $ARTX

#miniARTX #ARToken
Ignoruj hałas K-line, zimne przemyślenia na temat narracji płatności Plasma i rozróżnianie prawdy od fałszu Obecny klimat rynkowy rzeczywiście jest nerwowy, wszyscy są zaślepieni AI i MEME, a patrząc na konto, gdzie XPL spadł prawie o 90%, trudno nie czuć emocji. Ale ja mam tendencję do skupiania się na szczegółach, im mniej ludzi krzyczy o inwestycjach, tym bardziej przeglądam białe księgi. Szczerze mówiąc, gdy większość protokołów Layer 2 wciąż bawi się w „lewa noga na prawej nodze”, mechanizm Paymaster @Plasma jest rzeczywiście jednym z nielicznych, który może być wdrożony. Czy próbowaliście przesłać U znajomym poza kręgami? Muszą najpierw zdobyć trochę ETH na opłaty, co jest po prostu nieludzkie, podczas gdy XPL, który bezpośrednio wykorzystuje stablecoiny do pokrycia opłat, sprawia, że płatności Web3 mają odrobinę smaku Alipay. W tym aspekcie, nawet takie wiodące L2 jak Optimism czy Arbitrum, mają jeszcze sporo do nadrobienia, a bariera wciąż istnieje. Zobaczmy dane na łańcuchu, TVL puli pożyczkowej Maple Finance potajemnie wspięło się do 1,1 miliarda dolarów, co prawdopodobnie oznacza, że instytucje trzymają tam pieniądze, czerpiąc zyski, w końcu karty Rain i Oobit, które są zintegrowane z siecią Visa, obejmują miliony sprzedawców, a takie rzeczywiste scenariusze płatności mają dużo więcej wiarygodności niż te tokeny do zarządzania powietrzem. Ale nie chcę ślepo chwalić, ta platforma ma również poważne wady, węzły weryfikacyjne są silnie skoncentrowane, mówiąc wprost, teraz przypomina to zcentralizowany serwer, a bezpieczeństwo opiera się na okresowym związaniu z siecią BTC. Ekosystem jest jeszcze bardziej jałowy, poza jednym lub dwoma protokołami DeFi, nie ma nawet żadnego solidnego projektu, który mógłby działać na tym łańcuchu, więc nie ma szans na zabawę w tej przestrzeni. Ale patrząc z innej strony, skoro stabilne monety zgodne z EUROP w UE już są w grze, oznacza to, że projektodawcy w ogóle nie myślą o drodze do zdobycia ruchu, tylko grają w przyszłość płatności zgodnych z regulacjami. W tym hałaśliwym rynku uważam, że zamiast pakować się w te nieuchwytne historie na szczycie, lepiej zainwestować w zapomniane zakątki, które rzeczywiście rozwiązują problem „trudności w transferze”, choć istnieje ryzyko, ale logika jest jasna. #plasma $XPL
Ignoruj hałas K-line, zimne przemyślenia na temat narracji płatności Plasma i rozróżnianie prawdy od fałszu
Obecny klimat rynkowy rzeczywiście jest nerwowy, wszyscy są zaślepieni AI i MEME, a patrząc na konto, gdzie XPL spadł prawie o 90%, trudno nie czuć emocji. Ale ja mam tendencję do skupiania się na szczegółach, im mniej ludzi krzyczy o inwestycjach, tym bardziej przeglądam białe księgi. Szczerze mówiąc, gdy większość protokołów Layer 2 wciąż bawi się w „lewa noga na prawej nodze”, mechanizm Paymaster @Plasma jest rzeczywiście jednym z nielicznych, który może być wdrożony. Czy próbowaliście przesłać U znajomym poza kręgami? Muszą najpierw zdobyć trochę ETH na opłaty, co jest po prostu nieludzkie, podczas gdy XPL, który bezpośrednio wykorzystuje stablecoiny do pokrycia opłat, sprawia, że płatności Web3 mają odrobinę smaku Alipay. W tym aspekcie, nawet takie wiodące L2 jak Optimism czy Arbitrum, mają jeszcze sporo do nadrobienia, a bariera wciąż istnieje.
Zobaczmy dane na łańcuchu, TVL puli pożyczkowej Maple Finance potajemnie wspięło się do 1,1 miliarda dolarów, co prawdopodobnie oznacza, że instytucje trzymają tam pieniądze, czerpiąc zyski, w końcu karty Rain i Oobit, które są zintegrowane z siecią Visa, obejmują miliony sprzedawców, a takie rzeczywiste scenariusze płatności mają dużo więcej wiarygodności niż te tokeny do zarządzania powietrzem. Ale nie chcę ślepo chwalić, ta platforma ma również poważne wady, węzły weryfikacyjne są silnie skoncentrowane, mówiąc wprost, teraz przypomina to zcentralizowany serwer, a bezpieczeństwo opiera się na okresowym związaniu z siecią BTC. Ekosystem jest jeszcze bardziej jałowy, poza jednym lub dwoma protokołami DeFi, nie ma nawet żadnego solidnego projektu, który mógłby działać na tym łańcuchu, więc nie ma szans na zabawę w tej przestrzeni. Ale patrząc z innej strony, skoro stabilne monety zgodne z EUROP w UE już są w grze, oznacza to, że projektodawcy w ogóle nie myślą o drodze do zdobycia ruchu, tylko grają w przyszłość płatności zgodnych z regulacjami. W tym hałaśliwym rynku uważam, że zamiast pakować się w te nieuchwytne historie na szczycie, lepiej zainwestować w zapomniane zakątki, które rzeczywiście rozwiązują problem „trudności w transferze”, choć istnieje ryzyko, ale logika jest jasna. #plasma $XPL
Zobacz tłumaczenie
支付链的终局博弈:在通用L2的尸横遍野中重估专有架构的冷峻价值盯着屏幕上那几条为了领取空投而不得不交互的Layer 2网络交易记录,我突然感到一种前所未有的疲惫感,这种疲惫不是源于Gas费的涨跌,而是源于一种深层的技术虚无主义,现在的加密世界太拥挤了,每隔几天就有一条新的链宣称自己解决了不可能三角,实际上不过是把Geth代码复制粘贴再改个参数,那种感觉就像是在看一群穿着不同颜色马甲的克隆人在同一个拥挤的房间里互殴,直到我重新把目光聚焦回@Plasma ,或者说是XPL,这种技术上的审美疲劳才稍微得到了一点缓解。我并不是在鼓吹这个项目有多完美,相反它那一堆让人头疼的不管是经济模型还是生态早期的荒芜感都让我数次想清仓走人,但每当我真的去跑一笔交易,去深究它底层那个Reth客户端的响应速度时,又会被那种几乎是工业级的冷峻美感给拉回来,这种纠结的心态贯穿了我过去三个月的持仓周期,也让我开始重新思考到底什么样的基础设施才能在即将到来的大规模采用中活下来。 我们现在的行业陷入了一个误区,就是过分迷信通用计算,以太坊是世界计算机,所以大家都想做世界计算机的分身,Optimism也好Arbitrum也罢,本质上都是在试图把一个通用的操作系统搬到链下运行,但问题在于绝大多数用户的真实需求其实非常贫瘠,仅仅就是支付和转账而已,当我试图用Plasma进行一笔简单的USDT转账时,那种体验是完全不同的,没有复杂的授权流程,不需要为了支付Gas而去专门买一点作为燃料的原生代币,这种Paymaster的设计在白皮书里看着像是个花哨的术语,但真落到实处时你才会发现这是对用户心理门槛的一次降维打击。回想一下我们在Polygon或者Solana上的体验,虽然速度快了,但那个心智负担依然存在,你得时刻算计着钱包里留的那点SOL够不够下一次交互,这种焦虑感在XPL的架构里被抹平了,它允许用稳定币直接支付手续费的设计,让我第一次感觉像是在用微信支付而不是在操作一个复杂的分布式账本,这种底层的产品直觉比任何高大上的TPS数据都来得实在。 说到TPS,这又是一个被行业玩坏了的指标,Solana宣称的几万TPS在宕机面前就是个笑话,而Plasma选择了基于Reth构建执行层,这是一个非常大胆但也非常极客的选择。熟悉客户端开发的人都知道,Rust写的Reth在内存安全和执行效率上对Go写的Geth简直就是降维打击,我在本地节点同步数据的时候能明显感觉到这种差异,Plasma的同步速度和对硬件的压榨效率让我惊讶,它没有像其他EVM兼容链那样随着状态爆炸而变得臃肿不堪,这种轻量化的特质在现在的胖协议时代显得格格不入却又异常珍贵。我一直认为未来的公链竞争不应该是比谁的生态更庞大,而是比谁的代码更干净,谁的架构更能扛得住熵增。很多L2现在的状态就像是那个为了展示肌肉而疯狂打药的健美运动员,看着壮实但虚火很旺,而Plasma给我的感觉更像是一个精瘦的长跑选手,它舍弃了很多花里胡哨的通用计算功能,专注于把支付这一件事做到极致,这种做减法的哲学在充斥着庞氏骗局和各种Yield Farming的圈子里简直就是一股清流,或者说是一股泥石流,毕竟并不是所有人都喜欢这种枯燥的叙事。 当然我也必须得吐槽一下现在的市场环境对这种垂直链的偏见,大家都被以太坊的模块化叙事洗脑了,觉得未来就是Rollup的天下,所有的应用都该长在L2上,但事实真的如此吗,看看现在Fragmented的流动性吧,跨链桥成了黑客的提款机,资产在不同的L2之间流转就像是在过安检一样麻烦,Plasma这种试图在Layer 1层面就解决支付问题的思路,其实是在反抗这种过度分层的趋势。我拿它和Tron做过对比,虽然孙哥的链名声不好,但不得不承认USDT在Tron上的体验确实是目前的标杆,快且便宜,Plasma要想从Tron手里抢食,光靠技术上的优越感是没用的,Reth再好,如果交易所不支持,如果OTC商家不认可,那也就是个自嗨的玩具。这也是我最担心的地方,技术团队往往容易陷入一种代码洁癖,觉得只要我把技术做牛了用户自然会来,但支付是一个双边市场,需要极强的地推能力和商务拓展,目前看XPL在这方面的动作还是太慢了,虽然看到了一些关于CoW Swap集成的消息,但距离真正形成网络效应还有很长的路要走,这种漫长的等待期对于我们这些二级市场的投机者来说简直就是一种煎熬,看着隔壁的Meme币一天十倍,手里握着一堆技术愿景宏大的代币不动如山,这种心理落差需要极强的信仰充值才能抵消。 再来说说那个让我爱恨交织的稳定币机制,Plasma想做的不只是一个链,更像是一个自带央行的金融体系,它试图通过协议层面的收益分配来激励流动性,这种想法很美好,但在具体的执行上充满了不确定性。我看过他们的经济模型设计,大部分代币被锁定用于生态激励,这意味着未来会有持续的抛压,虽然团队说是线性释放,但在币圈大家都被VC币的解锁砸怕了,那种对未知抛压的恐惧是刻在骨子里的。而且现在的稳定币赛道太拥挤了,Tether是霸主,USDC是合规代表,还有Ethena这种带收益的怪胎,Plasma原生的稳定币要想突围,除非能提供不可抗拒的收益率或者极深的流动性,否则用户凭什么要把钱从USDT换成你的XPL或者原生稳定币呢,这就陷入了一个先有鸡还是先有蛋的死循环。但我又转念一想,正是因为难所以才有护城河,如果只是发个币搞个流动性挖矿,那这种项目我连看都不回看一眼,正是因为它试图触碰法币出入金和底层支付清算这个最硬的骨头,才让我觉得它具备成为下一个周期黑马的潜质,哪怕这个概率可能只有百分之十。 我还特别关注了它和比特币生态的互动,这在之前很多分析里都被忽略了,Plasma似乎在有意无意地向BTC靠拢,不管是pBTC的设计还是对UTXO模型的某种致敬,都透露出一种想做比特币侧链或者说支付层的野心。现在的BTC L2赛道火得一塌糊涂,但大部分都是挂羊头卖狗肉,本质上还是个EVM链,而Plasma在底层架构上对状态转换的理解,其实和比特币的理念更契合。如果未来它能打通比特币的流动性,让BTC在它的网络上实现毫秒级支付且不需要信任跨链桥,那这个叙事空间瞬间就被打开了。这比在以太坊生态里卷那些DeFi乐高要有意义得多,毕竟比特币才是这个行业最大的资金池,谁能把这部分沉睡的资金盘活,谁就是下一个周期的王,但我目前还没看到特别落地的产品出来,这部分更多还是停留在我的意淫阶段,或者是团队在下一盘很大的棋,大到我们这些散户暂时还看不懂。 在这个充满了噪音的市场里,保持独立思考太难了,我也经常被各种FUD消息影响,一会儿听说团队闹矛盾了,一会儿又听说开发进度不及预期,但每次回到代码库,看到那些提交记录,看到Reth客户端一点点完善,我又会觉得这些噪音其实都不重要。区块链行业发展到现在,已经到了一个去伪存真的时候,那些靠着PPT和空洞叙事融资的项目迟早会归零,最后留下来的一定是那些真正解决了问题的基础设施。Plasma解决的问题很具体,就是支付,这个听起来最不性感但最刚需的场景。我甚至觉得它有点像早期的Solana,在被FTX暴雷牵连之前,Solana也是靠着高性能和低费率在支付领域默默耕耘,虽然经常宕机,但它确实切中了一部分高频交易的需求。Plasma现在的处境更像是黎明前的黑暗,技术已经成型,但市场还没反应过来,或者说市场还在观望,等待一个引爆点。 关于竞品,我必须得提一下Monad和Sei,这两个也是主打高性能并行EVM的当红炸子鸡,估值高得吓人,资本捧得也很高。相比之下Plasma显得有点孤单,没有那么多顶级VC站台,社区声量也不如它们大,但从技术纯粹性的角度看,Monad更多是在做EVM的优化,是在修补一辆旧车让它跑得更快,而Plasma更像是重新造了一辆车,专门为了跑支付这条赛道。这种差异在牛市初期可能看不出来,甚至因为缺乏炒作题材而跑输大盘,但一旦进入深水区,当链上活动真正爆发时,架构上的优势就会体现出来。我看过Sei的代码逻辑,为了追求速度牺牲了很多去中心化的特性,而Plasma在Retn的基础上似乎找到了一个更好的平衡点,当然这也可能是我的幸存者偏差在作祟,毕竟屁股决定脑袋,持仓决定信仰。 还有一个很有意思的现象,就是现在的用户其实并不关心底层技术,他们只关心哪里有金狗,哪里能赚钱,这对Plasma这种技术导向型项目是个巨大的挑战。你跟用户讲Reth,讲Gas抽象,讲Merkle树,用户只会问你币价什么时候拉盘。这就逼着项目方必须在运营上下功夫,怎么把技术优势转化为赚钱效应,这是Plasma团队目前最薄弱的环节。我看他们的推特运营,简直像个理工男在自言自语,缺乏那种煽动性,这在币圈是很吃亏的。不过反过来看,这也筛掉了一批浮躁的投机客,留下来的社区成员相对比较硬核,这种社区氛围在长周期来看其实更健康,不会因为一次暴跌就作鸟兽散,大家更愿意去讨论技术落地的可能性,而不是整天喊单。 写到这我突然意识到,我之所以对Plasma这么执着,可能潜意识里是在寻找那个“完美的区块链”,一个既有比特币的安全性,又有Web2级别体验的乌托邦。理性告诉我这种东西不存在,所有的技术都是权衡(Trade-off),Plasma选择了支付体验,必然在某些方面做出了妥协,比如验证节点的门槛,比如早期流动性的匮乏。但这种不完美恰恰是真实世界的写照,我们不需要另一个以太坊杀手,我们需要的是一个能真正让我想去楼下便利店买瓶水时,愿意掏出手机扫码支付的区块链网络,而不是还要担心这笔交易会不会卡在mempool里,或者手续费会不会比水还贵。现在的L2们都在忙着搞ZK证明,搞复杂的交互证明,却忘了最简单的道理:好用的技术应该是无感的。Plasma正在尝试做这种无感的基础设施,虽然现在它还很粗糙,甚至有点丑陋,bug也没修完,偶尔还会出现一些莫名奇妙的转账延迟,但那个方向是对的。 未来的几个月对Plasma来说至关重要,代币解锁的压力,主网稳定性的考验,以及竞品们的围剿,每一个都是生死关。我有时候看着K线图会想,如果它失败了,那也不过是我众多归零投资中的一个,顶多是多了一笔学费;但如果它做成了,那它改变的不仅仅是支付方式,而是我们对Layer 1存在意义的理解。它证明了通用计算并不是唯一的出路,垂直领域的深耕依然有巨大的价值。这种赌注,不仅仅是关于财富,更是关于认知。在这个充斥着复制粘贴代码的行业里,支持一点原创性的尝试,哪怕最后证明是错的,我觉得也是值得的。毕竟,如果所有人都去搞通用的Rollup,那这个行业也未免太无趣了些。我愿意为了这份不同,再多忍受一会儿账户浮亏的刺痛,等待那个属于支付链的时代的到来,或者是等待它的彻底消亡,无论是哪种结果,都是一场精彩的实验。#plasma $XPL

支付链的终局博弈:在通用L2的尸横遍野中重估专有架构的冷峻价值

盯着屏幕上那几条为了领取空投而不得不交互的Layer 2网络交易记录,我突然感到一种前所未有的疲惫感,这种疲惫不是源于Gas费的涨跌,而是源于一种深层的技术虚无主义,现在的加密世界太拥挤了,每隔几天就有一条新的链宣称自己解决了不可能三角,实际上不过是把Geth代码复制粘贴再改个参数,那种感觉就像是在看一群穿着不同颜色马甲的克隆人在同一个拥挤的房间里互殴,直到我重新把目光聚焦回@Plasma ,或者说是XPL,这种技术上的审美疲劳才稍微得到了一点缓解。我并不是在鼓吹这个项目有多完美,相反它那一堆让人头疼的不管是经济模型还是生态早期的荒芜感都让我数次想清仓走人,但每当我真的去跑一笔交易,去深究它底层那个Reth客户端的响应速度时,又会被那种几乎是工业级的冷峻美感给拉回来,这种纠结的心态贯穿了我过去三个月的持仓周期,也让我开始重新思考到底什么样的基础设施才能在即将到来的大规模采用中活下来。
我们现在的行业陷入了一个误区,就是过分迷信通用计算,以太坊是世界计算机,所以大家都想做世界计算机的分身,Optimism也好Arbitrum也罢,本质上都是在试图把一个通用的操作系统搬到链下运行,但问题在于绝大多数用户的真实需求其实非常贫瘠,仅仅就是支付和转账而已,当我试图用Plasma进行一笔简单的USDT转账时,那种体验是完全不同的,没有复杂的授权流程,不需要为了支付Gas而去专门买一点作为燃料的原生代币,这种Paymaster的设计在白皮书里看着像是个花哨的术语,但真落到实处时你才会发现这是对用户心理门槛的一次降维打击。回想一下我们在Polygon或者Solana上的体验,虽然速度快了,但那个心智负担依然存在,你得时刻算计着钱包里留的那点SOL够不够下一次交互,这种焦虑感在XPL的架构里被抹平了,它允许用稳定币直接支付手续费的设计,让我第一次感觉像是在用微信支付而不是在操作一个复杂的分布式账本,这种底层的产品直觉比任何高大上的TPS数据都来得实在。
说到TPS,这又是一个被行业玩坏了的指标,Solana宣称的几万TPS在宕机面前就是个笑话,而Plasma选择了基于Reth构建执行层,这是一个非常大胆但也非常极客的选择。熟悉客户端开发的人都知道,Rust写的Reth在内存安全和执行效率上对Go写的Geth简直就是降维打击,我在本地节点同步数据的时候能明显感觉到这种差异,Plasma的同步速度和对硬件的压榨效率让我惊讶,它没有像其他EVM兼容链那样随着状态爆炸而变得臃肿不堪,这种轻量化的特质在现在的胖协议时代显得格格不入却又异常珍贵。我一直认为未来的公链竞争不应该是比谁的生态更庞大,而是比谁的代码更干净,谁的架构更能扛得住熵增。很多L2现在的状态就像是那个为了展示肌肉而疯狂打药的健美运动员,看着壮实但虚火很旺,而Plasma给我的感觉更像是一个精瘦的长跑选手,它舍弃了很多花里胡哨的通用计算功能,专注于把支付这一件事做到极致,这种做减法的哲学在充斥着庞氏骗局和各种Yield Farming的圈子里简直就是一股清流,或者说是一股泥石流,毕竟并不是所有人都喜欢这种枯燥的叙事。
当然我也必须得吐槽一下现在的市场环境对这种垂直链的偏见,大家都被以太坊的模块化叙事洗脑了,觉得未来就是Rollup的天下,所有的应用都该长在L2上,但事实真的如此吗,看看现在Fragmented的流动性吧,跨链桥成了黑客的提款机,资产在不同的L2之间流转就像是在过安检一样麻烦,Plasma这种试图在Layer 1层面就解决支付问题的思路,其实是在反抗这种过度分层的趋势。我拿它和Tron做过对比,虽然孙哥的链名声不好,但不得不承认USDT在Tron上的体验确实是目前的标杆,快且便宜,Plasma要想从Tron手里抢食,光靠技术上的优越感是没用的,Reth再好,如果交易所不支持,如果OTC商家不认可,那也就是个自嗨的玩具。这也是我最担心的地方,技术团队往往容易陷入一种代码洁癖,觉得只要我把技术做牛了用户自然会来,但支付是一个双边市场,需要极强的地推能力和商务拓展,目前看XPL在这方面的动作还是太慢了,虽然看到了一些关于CoW Swap集成的消息,但距离真正形成网络效应还有很长的路要走,这种漫长的等待期对于我们这些二级市场的投机者来说简直就是一种煎熬,看着隔壁的Meme币一天十倍,手里握着一堆技术愿景宏大的代币不动如山,这种心理落差需要极强的信仰充值才能抵消。
再来说说那个让我爱恨交织的稳定币机制,Plasma想做的不只是一个链,更像是一个自带央行的金融体系,它试图通过协议层面的收益分配来激励流动性,这种想法很美好,但在具体的执行上充满了不确定性。我看过他们的经济模型设计,大部分代币被锁定用于生态激励,这意味着未来会有持续的抛压,虽然团队说是线性释放,但在币圈大家都被VC币的解锁砸怕了,那种对未知抛压的恐惧是刻在骨子里的。而且现在的稳定币赛道太拥挤了,Tether是霸主,USDC是合规代表,还有Ethena这种带收益的怪胎,Plasma原生的稳定币要想突围,除非能提供不可抗拒的收益率或者极深的流动性,否则用户凭什么要把钱从USDT换成你的XPL或者原生稳定币呢,这就陷入了一个先有鸡还是先有蛋的死循环。但我又转念一想,正是因为难所以才有护城河,如果只是发个币搞个流动性挖矿,那这种项目我连看都不回看一眼,正是因为它试图触碰法币出入金和底层支付清算这个最硬的骨头,才让我觉得它具备成为下一个周期黑马的潜质,哪怕这个概率可能只有百分之十。
我还特别关注了它和比特币生态的互动,这在之前很多分析里都被忽略了,Plasma似乎在有意无意地向BTC靠拢,不管是pBTC的设计还是对UTXO模型的某种致敬,都透露出一种想做比特币侧链或者说支付层的野心。现在的BTC L2赛道火得一塌糊涂,但大部分都是挂羊头卖狗肉,本质上还是个EVM链,而Plasma在底层架构上对状态转换的理解,其实和比特币的理念更契合。如果未来它能打通比特币的流动性,让BTC在它的网络上实现毫秒级支付且不需要信任跨链桥,那这个叙事空间瞬间就被打开了。这比在以太坊生态里卷那些DeFi乐高要有意义得多,毕竟比特币才是这个行业最大的资金池,谁能把这部分沉睡的资金盘活,谁就是下一个周期的王,但我目前还没看到特别落地的产品出来,这部分更多还是停留在我的意淫阶段,或者是团队在下一盘很大的棋,大到我们这些散户暂时还看不懂。
在这个充满了噪音的市场里,保持独立思考太难了,我也经常被各种FUD消息影响,一会儿听说团队闹矛盾了,一会儿又听说开发进度不及预期,但每次回到代码库,看到那些提交记录,看到Reth客户端一点点完善,我又会觉得这些噪音其实都不重要。区块链行业发展到现在,已经到了一个去伪存真的时候,那些靠着PPT和空洞叙事融资的项目迟早会归零,最后留下来的一定是那些真正解决了问题的基础设施。Plasma解决的问题很具体,就是支付,这个听起来最不性感但最刚需的场景。我甚至觉得它有点像早期的Solana,在被FTX暴雷牵连之前,Solana也是靠着高性能和低费率在支付领域默默耕耘,虽然经常宕机,但它确实切中了一部分高频交易的需求。Plasma现在的处境更像是黎明前的黑暗,技术已经成型,但市场还没反应过来,或者说市场还在观望,等待一个引爆点。
关于竞品,我必须得提一下Monad和Sei,这两个也是主打高性能并行EVM的当红炸子鸡,估值高得吓人,资本捧得也很高。相比之下Plasma显得有点孤单,没有那么多顶级VC站台,社区声量也不如它们大,但从技术纯粹性的角度看,Monad更多是在做EVM的优化,是在修补一辆旧车让它跑得更快,而Plasma更像是重新造了一辆车,专门为了跑支付这条赛道。这种差异在牛市初期可能看不出来,甚至因为缺乏炒作题材而跑输大盘,但一旦进入深水区,当链上活动真正爆发时,架构上的优势就会体现出来。我看过Sei的代码逻辑,为了追求速度牺牲了很多去中心化的特性,而Plasma在Retn的基础上似乎找到了一个更好的平衡点,当然这也可能是我的幸存者偏差在作祟,毕竟屁股决定脑袋,持仓决定信仰。
还有一个很有意思的现象,就是现在的用户其实并不关心底层技术,他们只关心哪里有金狗,哪里能赚钱,这对Plasma这种技术导向型项目是个巨大的挑战。你跟用户讲Reth,讲Gas抽象,讲Merkle树,用户只会问你币价什么时候拉盘。这就逼着项目方必须在运营上下功夫,怎么把技术优势转化为赚钱效应,这是Plasma团队目前最薄弱的环节。我看他们的推特运营,简直像个理工男在自言自语,缺乏那种煽动性,这在币圈是很吃亏的。不过反过来看,这也筛掉了一批浮躁的投机客,留下来的社区成员相对比较硬核,这种社区氛围在长周期来看其实更健康,不会因为一次暴跌就作鸟兽散,大家更愿意去讨论技术落地的可能性,而不是整天喊单。
写到这我突然意识到,我之所以对Plasma这么执着,可能潜意识里是在寻找那个“完美的区块链”,一个既有比特币的安全性,又有Web2级别体验的乌托邦。理性告诉我这种东西不存在,所有的技术都是权衡(Trade-off),Plasma选择了支付体验,必然在某些方面做出了妥协,比如验证节点的门槛,比如早期流动性的匮乏。但这种不完美恰恰是真实世界的写照,我们不需要另一个以太坊杀手,我们需要的是一个能真正让我想去楼下便利店买瓶水时,愿意掏出手机扫码支付的区块链网络,而不是还要担心这笔交易会不会卡在mempool里,或者手续费会不会比水还贵。现在的L2们都在忙着搞ZK证明,搞复杂的交互证明,却忘了最简单的道理:好用的技术应该是无感的。Plasma正在尝试做这种无感的基础设施,虽然现在它还很粗糙,甚至有点丑陋,bug也没修完,偶尔还会出现一些莫名奇妙的转账延迟,但那个方向是对的。
未来的几个月对Plasma来说至关重要,代币解锁的压力,主网稳定性的考验,以及竞品们的围剿,每一个都是生死关。我有时候看着K线图会想,如果它失败了,那也不过是我众多归零投资中的一个,顶多是多了一笔学费;但如果它做成了,那它改变的不仅仅是支付方式,而是我们对Layer 1存在意义的理解。它证明了通用计算并不是唯一的出路,垂直领域的深耕依然有巨大的价值。这种赌注,不仅仅是关于财富,更是关于认知。在这个充斥着复制粘贴代码的行业里,支持一点原创性的尝试,哪怕最后证明是错的,我觉得也是值得的。毕竟,如果所有人都去搞通用的Rollup,那这个行业也未免太无趣了些。我愿意为了这份不同,再多忍受一会儿账户浮亏的刺痛,等待那个属于支付链的时代的到来,或者是等待它的彻底消亡,无论是哪种结果,都是一场精彩的实验。#plasma $XPL
Odrzućmy fałszywy dobrobyt, porozmawiajmy o tym, dlaczego większość tak zwanych publicznych łańcuchów AI tak naprawdę nie potrafi uruchomić nawet agenta Przez te kilka dni wpatrywałem się w rynek, a cały ekran był zasypany chaotycznymi monetami związanymi z AI, ale szczerze mówiąc, naprawdę niewiele projektów potrafi wprowadzić "inteligencję" w podstawy. Ponownie przeglądałem dokumentację techniczną @Vanar i im więcej czytałem, tym bardziej czułem, że obecny rynek jest pełen asymetrii informacyjnej. Wszyscy koncentrują się na TPS, jakby wystarczyło, że prędkość będzie wystarczająca, aby AI mogło wzbić się na łańcuchu, co jest zdecydowanie największym błędem. Wyobraź sobie, że wdrażasz skomplikowanego agenta na L1, który słynie z wysokiej przepustowości; same koszty gazu związane z przechowywaniem stanu i wywołaniami kontekstowymi mogą cię doprowadzić do bankructwa, nie wspominając już o maszynie wirtualnej, która nie została zoptymalizowana pod kątem obliczeń niepewnych – to po prostu katastrofa. Vanar daje mi zupełnie inne odczucia; to nie jest taki przypadkowy twór, który na siłę montuje silnik do powozu, ale od samego początku rozwiązuje problem "obliczeń" i "pamięci". Szczególnie ten poziom Neutron, uważam, że jest nawet bardziej seksowny niż sam główny łańcuch. Rozwiązuje kluczowy problem: dane na łańcuchu są zazwyczaj "martwe", bez semantyki, podczas gdy Neutron pozwala kontraktom rozumieć logikę kryjącą się za danymi. To zupełnie inny wymiar niż te "fałszywe projekty AI", które potrafią tylko uruchamiać modele offline i przechowywać hasze na łańcuchu. Zauważyłem, że konkurencja w większości wciąż zajmuje się prostymi oraklami do podawania cen lub po prostu korzysta z popularności Nvidii, podczas gdy Vanar tworzy rodzimą na łańcuchu środowisko do wnioskowania. Jest jeszcze jeden ciekawy punkt; jeśli dokładnie przeliczyć liczby, można zauważyć, że model ekonomiczny Vanar jest niezwykle przyjazny dla interakcji AI w wysokiej częstotliwości. Dla programistów nie chodzi o setki tysięcy fałszywych TPS na sekundę, ale o środowisko wykonawcze, które potrafi obsługiwać wnioskowanie, przechowywać pamięć i jest zgodne z przepisami. Narracja o zerowej emisji węgla dla wielu ludzi wydaje się nieistotna, ale w kontekście eksplozji zużycia energii w treningu dużych modeli, to w rzeczywistości jest bilet wstępu dla wielu gigantów Web2. Nie daj się zwieść hałasowi na rynku; kiedy przypływ ustąpi, trzeba będzie zobaczyć, kto tak naprawdę nosił spodnie, a infrastruktura, która może naprawdę udźwignąć gospodarkę maszyn, zasługuje na następną wielką falę wzrostu. #vanar $VANRY
Odrzućmy fałszywy dobrobyt, porozmawiajmy o tym, dlaczego większość tak zwanych publicznych łańcuchów AI tak naprawdę nie potrafi uruchomić nawet agenta
Przez te kilka dni wpatrywałem się w rynek, a cały ekran był zasypany chaotycznymi monetami związanymi z AI, ale szczerze mówiąc, naprawdę niewiele projektów potrafi wprowadzić "inteligencję" w podstawy. Ponownie przeglądałem dokumentację techniczną @Vanarchain i im więcej czytałem, tym bardziej czułem, że obecny rynek jest pełen asymetrii informacyjnej. Wszyscy koncentrują się na TPS, jakby wystarczyło, że prędkość będzie wystarczająca, aby AI mogło wzbić się na łańcuchu, co jest zdecydowanie największym błędem. Wyobraź sobie, że wdrażasz skomplikowanego agenta na L1, który słynie z wysokiej przepustowości; same koszty gazu związane z przechowywaniem stanu i wywołaniami kontekstowymi mogą cię doprowadzić do bankructwa, nie wspominając już o maszynie wirtualnej, która nie została zoptymalizowana pod kątem obliczeń niepewnych – to po prostu katastrofa.
Vanar daje mi zupełnie inne odczucia; to nie jest taki przypadkowy twór, który na siłę montuje silnik do powozu, ale od samego początku rozwiązuje problem "obliczeń" i "pamięci". Szczególnie ten poziom Neutron, uważam, że jest nawet bardziej seksowny niż sam główny łańcuch. Rozwiązuje kluczowy problem: dane na łańcuchu są zazwyczaj "martwe", bez semantyki, podczas gdy Neutron pozwala kontraktom rozumieć logikę kryjącą się za danymi. To zupełnie inny wymiar niż te "fałszywe projekty AI", które potrafią tylko uruchamiać modele offline i przechowywać hasze na łańcuchu. Zauważyłem, że konkurencja w większości wciąż zajmuje się prostymi oraklami do podawania cen lub po prostu korzysta z popularności Nvidii, podczas gdy Vanar tworzy rodzimą na łańcuchu środowisko do wnioskowania.
Jest jeszcze jeden ciekawy punkt; jeśli dokładnie przeliczyć liczby, można zauważyć, że model ekonomiczny Vanar jest niezwykle przyjazny dla interakcji AI w wysokiej częstotliwości. Dla programistów nie chodzi o setki tysięcy fałszywych TPS na sekundę, ale o środowisko wykonawcze, które potrafi obsługiwać wnioskowanie, przechowywać pamięć i jest zgodne z przepisami. Narracja o zerowej emisji węgla dla wielu ludzi wydaje się nieistotna, ale w kontekście eksplozji zużycia energii w treningu dużych modeli, to w rzeczywistości jest bilet wstępu dla wielu gigantów Web2. Nie daj się zwieść hałasowi na rynku; kiedy przypływ ustąpi, trzeba będzie zobaczyć, kto tak naprawdę nosił spodnie, a infrastruktura, która może naprawdę udźwignąć gospodarkę maszyn, zasługuje na następną wielką falę wzrostu. #vanar $VANRY
Pożegnanie z iluzjami: w architekturze Vanara w końcu poczułem przemysłowy zapach Web3Patrząc na ekran, gdzie ciągle skaczą opłaty za gaz i logi błędów kilku agentów AI, popadłem w głęboką frustrację. Ta frustracja nie wynika z braku snu, lecz z poczucia rozdarcia w technologicznym zrozumieniu. W ciągu ostatniego tygodnia, jak obsesyjny człowiek, próbowałem wdrożyć nawet najbardziej podstawową logikę automatyzacji łańcuchowej na Layer 2 Ethereum i Solanie, a rezultatem były tylko problemy. Te publiczne łańcuchy, które krzyczą „napędzane AI”, po zdjęciu ich efektownych stron internetowych i białych ksiąg wciąż działają na starych, dostosowanych do DeFi logikach. Gdy przygotowywałem się do wyłączenia komputera i przyznania, że narracja AI w tej branży to tylko kolejna bańka spekulacyjna, przypadkiem otworzyłem dokumentację dewelopera @Vanar . Gdy to zobaczyłem, moje wcześniej zablokowane myśli zostały obudzone przez jakąś odległą, inżynieryjną intuicję. Nie zamierzam opowiadać wam historii o stówkach, chcę tylko porozmawiać o tym, dlaczego Vanar daje mi poczucie autentyczności, które wykracza poza niskie gusta, oraz jak mocno uderzyło to w twarze tych rzekomo wydajnych publicznych łańcuchów.

Pożegnanie z iluzjami: w architekturze Vanara w końcu poczułem przemysłowy zapach Web3

Patrząc na ekran, gdzie ciągle skaczą opłaty za gaz i logi błędów kilku agentów AI, popadłem w głęboką frustrację. Ta frustracja nie wynika z braku snu, lecz z poczucia rozdarcia w technologicznym zrozumieniu. W ciągu ostatniego tygodnia, jak obsesyjny człowiek, próbowałem wdrożyć nawet najbardziej podstawową logikę automatyzacji łańcuchowej na Layer 2 Ethereum i Solanie, a rezultatem były tylko problemy. Te publiczne łańcuchy, które krzyczą „napędzane AI”, po zdjęciu ich efektownych stron internetowych i białych ksiąg wciąż działają na starych, dostosowanych do DeFi logikach. Gdy przygotowywałem się do wyłączenia komputera i przyznania, że narracja AI w tej branży to tylko kolejna bańka spekulacyjna, przypadkiem otworzyłem dokumentację dewelopera @Vanarchain . Gdy to zobaczyłem, moje wcześniej zablokowane myśli zostały obudzone przez jakąś odległą, inżynieryjną intuicję. Nie zamierzam opowiadać wam historii o stówkach, chcę tylko porozmawiać o tym, dlaczego Vanar daje mi poczucie autentyczności, które wykracza poza niskie gusta, oraz jak mocno uderzyło to w twarze tych rzekomo wydajnych publicznych łańcuchów.
Zaloguj się, aby odkryć więcej treści
Poznaj najnowsze wiadomości dotyczące krypto
⚡️ Weź udział w najnowszych dyskusjach na temat krypto
💬 Współpracuj ze swoimi ulubionymi twórcami
👍 Korzystaj z treści, które Cię interesują
E-mail / Numer telefonu
Mapa strony
Preferencje dotyczące plików cookie
Regulamin platformy