Środowisko twórcze na placu wygląda mniej więcej tak, my, zwykli twórcy, tylko dostarczamy materiały dla graczy streamujących. Słyszałem, że wciąż zajmujesz się jakimś oryginałem, przestań żartować, lepiej się położ na spać, plagiat to jedyna droga na placu, oryginalni już dawno umarli z głodu. Gracze streamujący mają dziesiątki tysięcy wyświetleń w ciągu 10 minut, gdybyś nie streamował, naprawdę bym nie zauważył, jak to jest przesadne, nawet tytułów nie zmieniasz, hahaha.
为什么现在的“AI公链”看起来都像是在搞违章加盖? 最近把市面上几个喊得最凶的 AI 概念公链的代码逻辑为了个遍,说实话,看得我尴尬症都犯了。大家似乎陷入了一个巨大的误区:觉得只要 TPS 够高、手续费够低,就能把 AI 跑在链上了。但这就像是给算盘装了个 5G 模块,看似先进,实则离谱。这也是为什么当我深扒@Vanarchain 的技术栈时,会觉得它有点“另类”——它解决的不是“快”的问题,而是 AI 最致命的“健忘”症。 在现有的 EVM 体系里跑 AI Agent,最大的痛点其实是上下文(Context)的缺失。其他的竞品公链,我看来看去更像是在做“旧房改造”,试图在一个只适合记账的账本上强行塞入复杂的神经网络推理数据。结果就是,Agent 每做一步推理,都要烧 Gas 去链上捞数据,或者干脆把数据扔在链下,这还谈什么去中心化?Vanar 的思路倒是有意思,它那个 myNeutron 的设计,明显是看透了这一点。它不是在比拼谁的转账速度快,而是在给区块链装“海马体”。 我看了一圈竞品,大部分所谓的“AI 基础设施”还停留在卖 API 接口的阶段,根本没有触及到数据验证的底层。如果底层的链无法原生支持语义理解,那上面的 AI 就永远是个“瞎子”。Vanar 这种把语义记忆层直接做进基础设施的做法,虽然听起来有点晦涩,但对于开发者来说,这才是真正能用的环境。这就好比一个是只能存 1 和 0 的记事本,一个是能理解逻辑的数据库,这两者的维独完全不在一个层面上。 当然,现在这盘子铺得还不够大,生态也没那些满地土狗的链热闹。但从技术审美的角度看,这种原生的架构比起那些缝缝补补的拼接怪要顺眼多了。未来的 M2M(机器对机器)经济,拼的绝对不是谁能一秒钟转多少次账,而是谁能让 AI 便宜、可信地“思考”。#vanar $VANRY
Nie daj się już oszukiwać przez wynajem mocy obliczeniowej, @Vanarchain ta pierwotna architektura „mózgu” jest naprawdę interesująca Ta runda wyścigu AI jest gorąco dyskutowana, ale im więcej na to patrzę, tym bardziej czuję, że coś jest nie tak. Cała ekranowa DePIN opowiada historie o wynajmie mocy obliczeniowej, mówiąc prosto, to tylko zdecentralizowany AWS drugiego poziomu, prawda? Tego rodzaju prosta fizyczna kumulacja jest daleka od prawdziwej inteligencji Web3. Ostatnio poszedłem przeszukać białą księgę i Github Vanar, początkowo z zamiarem szukania problemów, ale odkryłem, że ci ludzie mają całkiem ciekawe pomysły, nie skupiają się na TPS ani na dystrybucji mocy obliczeniowej, lecz na problemie, który wiele publicznych łańcuchów nawet nie zrozumiało: koszty „pamięci” i „wnioskowania” AI na łańcuchu. Ci, którzy zajmują się technologią, wiedzą, że taki stan jak Ethereum jest z natury zapominalski. Jeśli chcesz, aby agent AI działał na łańcuchu, samo przesłanie modelu na łańcuch nic nie da, gdzie przechowywać ogromne ilości kontekstowych danych generowanych podczas procesu wnioskowania? Przechowywanie na Arweave jest zbyt wolne, a przechowywanie na łańcuchu kosztuje fortunę. Architektura Neutron stworzona przez Vanar sprawiła, że się uśmiechnąłem, to tak, jakby na blockchainie zainstalować hipokamp. Wykorzystując TensorRT do optymalizacji wnioskowania, skomplikowane dane semantyczne są kompresowane do postaci zrozumiałych na łańcuchu Seeds, co oznacza, że agent nie jest „głupcem”, który musi za każdym razem przeliczać wszystko od nowa, ale ma zdolność do taniej, ciągłej pamięci. To sprawia, że te projekty, które wciąż polegają na mostach międzyłańcuchowych, aby połączyć GPT-4, zostają daleko w tyle; pierwsze z nich uczą blockchain myślenia, a drugie maksymalnie są tylko długodystansowym telefonem do AI. Szczerze mówiąc, obecne doświadczenie ekosystemu jest rzeczywiście jeszcze dość wczesne, zrealizowałem rundę DApp, która wydaje się nieco „opustoszała”, a interakcje interfejsu mają jeszcze błędy; wczoraj ten swap kręcił się na okrągło przez długi czas, ale ta podstawowa logika zamknięta sprawiła, że czuję się pewnie. W porównaniu do tych projektów, które mają błyszczące prezentacje, ale tak naprawdę tylko sprzedają węzły, Vanar wyraźnie stara się budować tę najtrudniejszą warstwę „infrastruktury obliczeniowej”. Jeśli w przyszłości DeFi naprawdę może ewoluować w dynamiczne modele zarządzania ryzykiem napędzane AI, lub jeśli NPC w grach łańcuchowych mogą zyskać autonomiczną świadomość, to fundamenty na pewno będą w łańcuchu, który może natywnie przetwarzać wysoką przepustowość wnioskowania, a nie w tych starych skarbach, które obcinają wydajność, aby dostosować się do EVM. My, którzy prowadzimy badania, nie powinniśmy wciąż skupiać się na krótkoterminowych wahaniach linii K, musimy sprawdzić, czy w repozytorium kodu naprawdę składają klocki, czy budują silniki. #vanar $VANRY
Gdy AI biega po „wiejskich drogach” blockchaina: okrutne notatki z eksperymentu dotyczącego Vanar, kosztów obliczeniowych i tzw. „rodzimości”
Patrząc na czas w prawym dolnym rogu ekranu, jest trzecia trzydzieści, taki tryb życia dla nas, którzy borykają się w tym środowisku, jest już normą, zwłaszcza gdy próbujesz uruchomić prawdziwie logiczny agent na blockchainie, frustracja często przychodzi silniej niż senność. W ciągu ostatniego miesiąca prawie przeszukałem wszystkie dokumenty projektów reklamowanych jako „AI public blockchain”, to uczucie przypomina szukanie ściany nośnej wśród wielu wykończonych mieszkań, zewnętrznie błyszczące, pełne narracji i koncepcji, a po wykopaniu okazuje się, że to tylko bańka. Większość projektów, które określają swoje narracje AI, to nic innego jak nałożenie interfejsu API na tradycyjne łańcuchy EVM lub stworzenie nieprzydatnego rynku wynajmu mocy obliczeniowej, taka złożona architektura w moim odczuciu jest wręcz obrazą dla zdecentralizowanej inteligencji. Nie chcę wymieniać nazwisk, ale patrząc na te projekty z wartością rynkową rzędu dziesiątek miliardów, które wciąż opowiadają historię AI, używając logiki sidechain sprzed dwóch lat, to naprawdę zabawne.
Patrząc na obecny spadek XPL, jeśli w sercu nie ma żadnych emocji, to byłoby oszustwem, w końcu prawdziwe pieniądze zostały włożone, a ich wartość zmniejszyła się o prawie 90%. Kto by się nie wkurzył? Ale skoro zdecydowałem się badać ten krąg, nie mogę tylko dawać się ponieść emocjom. Zmuszam się do wyłączenia wykresu K, przeglądam ostatnie commit'y na Githubie @Plasma i dane on-chain, a zauważam coś innego. Cały czas krzyczymy o wielkoskalowych aplikacjach Web3, ale największą przeszkodą nie jest wcale zbyt niska TPS, lecz zbyt wygórowane wymagania, pomyśl, żeby przelać kilka u stabilnych monet, musisz najpierw kupić ETH lub SOL na opłaty, ta logika dla osób spoza kręgów wygląda absurdalnie. Mechanizm Paymaster w podstawach Plasma to chyba najwygodniejsza rzecz, którą ostatnio przetestowałem, nativnie wspiera płatności stabilnymi monetami na opłaty, takie „zero-stratowe” doświadczenie przypomina prawdziwe płatności, znacznie lepiej niż te publiczne łańcuchy, które tylko skupiają się na wydajności. Nie można nie wspomnieć o różnicy w porównaniu z konkurencją, obecne L2 na rynku, chociaż tanie, wciąż mają podzieloną logikę interakcji, podczas gdy Plasma jest w pełni kompatybilna z EVM i stworzyła sieć Bitcoin jako kotwicę, regularnie zapisując stan na BTC. To sprytny ruch, w tej niepewnej sytuacji korzystać z bezpieczeństwa Bitcoina jako wsparcia jest znacznie lepsze niż krzyczeć o konsensusie. Znowu spojrzałem na dane z Maple, TVL puli pożyczkowej SyrupUSDT wynosi zaskakujące 1,1 miliarda dolarów, te dane są nieco przerażające, fundusze instytucjonalne nie są głupie, jeśli w tym miejscu wciąż odważają się na dużą akumulację, oznacza to, że Smart Money ma podstawy co do jej płynności i bezpieczeństwa. Tego rodzaju głosowanie z prawdziwych pieniędzy jest bardziej wiarygodne niż krzyki na Twitterze. Oczywiście, jako poważny badacz, muszę również przelać trochę zimnej wody. Obecne węzły weryfikujące są wciąż zbyt skoncentrowane w rękach zespołu, stopień decentralizacji jest widocznie niski, co zawsze jest ryzykiem. Poza tym ekosystem, poza płatnościami i pożyczkami, jest naprawdę pusty, trudno znaleźć ciekawą Dapp. Ale może to jest pochodna zysków i strat, rynek jest teraz skrajnie pesymistyczny, wszyscy patrzą tylko na ceny i przeklinają, a zapominają o twardych danych, takich jak integracja Rain cards i Oobit z siecią Visa. Zastanawiam się, czy w obszarze płatności można się naprawdę wyróżnić, czy wybierać tych, którzy wciąż opowiadają historie, czy tych, którzy już położyli drogę do świata offline? #plasma $XPL
【Od entropii behawioralnej do modelu wykonania: dlaczego DBTI jest MBTI ery handlu AI?】
Rynek kryptowalut jest zasadniczo wysokowymiarowym „sandboxem gier”. Przyczyny strat inwestorów indywidualnych często są przypisywane różnicy informacyjnej, ale z perspektywy finansów behawioralnych kluczowym czynnikiem jest: długoterminowe niedopasowanie pomiędzy zachowaniem handlowym a podstawową strukturą osobowości. Osoby niecierpliwe są zmuszone do długoterminowego inwestowania, a osoby powolne do ślepego handlu wysokiej częstotliwości — taka „reakcja odrzucenia” na poziomie wykonawczym prowadzi do załamania dyscypliny większości. 1. DBTI: ewolucja od „subiektywnej ankiety” do „uczenia się przez wzmacnianie (IRL)” W odróżnieniu od tradycyjnych testów psychologicznych, Calculus Finance (https://x.com/CalculusFinance) promuje DBTI (system zdecentralizowanej osobowości handlowej), który stosuje nienaładowany model wydobywania danych:
Szczerze mówiąc, po zobaczeniu tylu łańcuchów L1, które udają się pod sztandarem AI, większość nadal korzysta z brutalnej logiki „wciśnięcia słonia do lodówki”, wymuszając podłączenie interfejsu modelu do łańcucha i nazywając to inteligencją. Ostatnio głęboko doświadczyłem protokołu V23 dla @Vanarchain , ta architektura rzeczywiście ma coś w sobie, nie jest jak te konkurencyjne produkty, które tylko wiedzą, jak układać TPS, na przykład Solana, która jest szybka, ale wobec AI Agentów potrzebujących ciągłej pamięci stanu i złożonego wnioskowania, jej podstawowa logika wciąż wydaje się być trochę „zapomniana”. Najbardziej przyciąga mnie w Vanarze to, że w jego pięciowarstwowej strukturze znajduje się warstwa Neutron, która bezpośrednio wprowadza pamięć semantyczną i trwały kontekst do infrastruktury, a nie jak wiele rozwiązań drugiego poziomu, które muszą korzystać z mostów międzyłańcuchowych, aby „pożyczyć mózg”. Jednak w trakcie rzeczywistej interakcji zauważyłem kilka irytujących szczegółów. Na przykład, obecna odpowiedź węzłów w ekstremalnie wysokiej częstotliwości handlu czasami powoduje opóźnienia w wyszukiwaniu danych, co dla scenariuszy z naciskiem na PayFi i wnioskowanie w czasie rzeczywistym nadal wymaga dopracowania stabilności. W porównaniu do sąsiednich projektów, które od razu chwalą się współpracą z NVIDIA, podczas gdy w rzeczywistości nawet nie opanowały przyspieszenia CUDA, działania Vanar po dołączeniu do planu Inception wydają się być znacznie bardziej stonowane, czasami wręcz frustrująco stonowane. Obecna logika przechwytywania tokenów zmieniła się, nie jest już czysto wydatkiem na gaz, lecz bardziej przypomina bilet na subskrypcję usług AI, ta zmiana paradygmatu rzeczywiście jest znacznie bardziej zaawansowana niż prosta spekulacja tokenizacją mocy obliczeniowej. Jeśli w przyszłości uda się zintegrować Google Cloud w bardziej bezproblemowy sposób, unikając zawirowań związanych z zarządzaniem kluczami prywatnymi, to ta „inteligentna infrastruktura” naprawdę mogłaby udowodnić, że potrafi przejść od wartości Web2 do Web3. Oczywiście, teraz mówienie, że może całkowicie zrewolucjonizować tradycyjne łańcuchy, jest jeszcze zbyt wcześnie, w końcu budowa ekosystemu nie polega tylko na technicznej architekturze, a to, czy potrafi przyjąć kolejną falę wybuchu AI, będzie zależało od tego, czy w rzeczywistości na sieci testowej Vanguard potrafi wytrzymać presję. #vanar $VANRY
Nie skupiaj się już na TPS: w kodzie Vanar zobaczyłem, że agenci AI naprawdę potrzebują pamięci i duszy
Ostatnie kilka tygodni na rynku było tak nerwowych, że nie mogłem się skupić na pisaniu kodu; cały ekran zapełniony był informacjami o finansowaniu „AI+Crypto” i projektami, które nie mają nawet ukończonych białych ksiąg. Prawie dałem się ponieść tej emocji, myśląc, że wystarczy, że będzie to łańcuch, a jeśli nałożę na niego powłokę LLM, to wzleci. Aż do wczoraj w nocy, by zweryfikować pomysł na międzyłańcuchowego agenta, musiałem z determinacją przejrzeć kilka tzw. dokumentów AI publicznych łańcuchów, a w końcu zatrzymałem się przed diagramem architektury Vanar. Szczerze mówiąc, na początku podszedłem do tego z nastawieniem na szukanie problemów, bo w tej branży widziałem wiele projektów, które odważnie nazywają się „rewolucyjne”, po prostu pakując elementy Web2 w nowy sposób, ale kiedy naprawdę zagłębiłem się w podstawową logikę @Vanarchain Vanar, szczególnie widząc, jak obsługuje dane (Neutron) i weryfikację wnioskowania (Kaion), moja arogancja jako dewelopera została zredukowana o połowę. Obecny rynek publicznych łańcuchów utknął w niezwykle nudnym błędnym kole; wszyscy szaleńczo rywalizują o TPS, ile transakcji można przetworzyć na sekundę, jakby zwiększenie przepustowości sprawiło, że AI będzie mogło działać na blockchainie, ale to całkowicie fałszywa logika.
Nie lubię używać takich słów jak „pewne zyski” czy „muszą wzrosnąć”. Ale zwracam uwagę na trzy rzeczy: czy to jest oficjalna strona, czy to jest główny minerał, czy został wcześniej obstawiony przez profesjonalne instytucje. miniARTX dzisiaj oficjalnie rusza w sieci, i umieszcza dzieło Fuyuan Zhou „Coral Realm” $CRL w głównym minerał; artysta jeszcze nie ukończył studiów, a galeria już się ściga; przewidywana wartość dzieła wzrośnie 4–5 razy, a do tego dochodzi mechanizm 14-krotności. „Rozpoczęcie na wysokim poziomie, bez niskiej ceny próbnej” to struktura, która najbardziej zyskuje. Reszty nie muszę za bardzo tłumaczyć. Dziś wieczorem $CRL rozpoczyna subskrypcję, nie można tego przegapić! #Ultiland $ARTX
Ignoruj hałas K-line, zimne przemyślenia na temat narracji płatności Plasma i rozróżnianie prawdy od fałszu Obecny klimat rynkowy rzeczywiście jest nerwowy, wszyscy są zaślepieni AI i MEME, a patrząc na konto, gdzie XPL spadł prawie o 90%, trudno nie czuć emocji. Ale ja mam tendencję do skupiania się na szczegółach, im mniej ludzi krzyczy o inwestycjach, tym bardziej przeglądam białe księgi. Szczerze mówiąc, gdy większość protokołów Layer 2 wciąż bawi się w „lewa noga na prawej nodze”, mechanizm Paymaster @Plasma jest rzeczywiście jednym z nielicznych, który może być wdrożony. Czy próbowaliście przesłać U znajomym poza kręgami? Muszą najpierw zdobyć trochę ETH na opłaty, co jest po prostu nieludzkie, podczas gdy XPL, który bezpośrednio wykorzystuje stablecoiny do pokrycia opłat, sprawia, że płatności Web3 mają odrobinę smaku Alipay. W tym aspekcie, nawet takie wiodące L2 jak Optimism czy Arbitrum, mają jeszcze sporo do nadrobienia, a bariera wciąż istnieje. Zobaczmy dane na łańcuchu, TVL puli pożyczkowej Maple Finance potajemnie wspięło się do 1,1 miliarda dolarów, co prawdopodobnie oznacza, że instytucje trzymają tam pieniądze, czerpiąc zyski, w końcu karty Rain i Oobit, które są zintegrowane z siecią Visa, obejmują miliony sprzedawców, a takie rzeczywiste scenariusze płatności mają dużo więcej wiarygodności niż te tokeny do zarządzania powietrzem. Ale nie chcę ślepo chwalić, ta platforma ma również poważne wady, węzły weryfikacyjne są silnie skoncentrowane, mówiąc wprost, teraz przypomina to zcentralizowany serwer, a bezpieczeństwo opiera się na okresowym związaniu z siecią BTC. Ekosystem jest jeszcze bardziej jałowy, poza jednym lub dwoma protokołami DeFi, nie ma nawet żadnego solidnego projektu, który mógłby działać na tym łańcuchu, więc nie ma szans na zabawę w tej przestrzeni. Ale patrząc z innej strony, skoro stabilne monety zgodne z EUROP w UE już są w grze, oznacza to, że projektodawcy w ogóle nie myślą o drodze do zdobycia ruchu, tylko grają w przyszłość płatności zgodnych z regulacjami. W tym hałaśliwym rynku uważam, że zamiast pakować się w te nieuchwytne historie na szczycie, lepiej zainwestować w zapomniane zakątki, które rzeczywiście rozwiązują problem „trudności w transferze”, choć istnieje ryzyko, ale logika jest jasna. #plasma $XPL
Odrzućmy fałszywy dobrobyt, porozmawiajmy o tym, dlaczego większość tak zwanych publicznych łańcuchów AI tak naprawdę nie potrafi uruchomić nawet agenta Przez te kilka dni wpatrywałem się w rynek, a cały ekran był zasypany chaotycznymi monetami związanymi z AI, ale szczerze mówiąc, naprawdę niewiele projektów potrafi wprowadzić "inteligencję" w podstawy. Ponownie przeglądałem dokumentację techniczną @Vanarchain i im więcej czytałem, tym bardziej czułem, że obecny rynek jest pełen asymetrii informacyjnej. Wszyscy koncentrują się na TPS, jakby wystarczyło, że prędkość będzie wystarczająca, aby AI mogło wzbić się na łańcuchu, co jest zdecydowanie największym błędem. Wyobraź sobie, że wdrażasz skomplikowanego agenta na L1, który słynie z wysokiej przepustowości; same koszty gazu związane z przechowywaniem stanu i wywołaniami kontekstowymi mogą cię doprowadzić do bankructwa, nie wspominając już o maszynie wirtualnej, która nie została zoptymalizowana pod kątem obliczeń niepewnych – to po prostu katastrofa. Vanar daje mi zupełnie inne odczucia; to nie jest taki przypadkowy twór, który na siłę montuje silnik do powozu, ale od samego początku rozwiązuje problem "obliczeń" i "pamięci". Szczególnie ten poziom Neutron, uważam, że jest nawet bardziej seksowny niż sam główny łańcuch. Rozwiązuje kluczowy problem: dane na łańcuchu są zazwyczaj "martwe", bez semantyki, podczas gdy Neutron pozwala kontraktom rozumieć logikę kryjącą się za danymi. To zupełnie inny wymiar niż te "fałszywe projekty AI", które potrafią tylko uruchamiać modele offline i przechowywać hasze na łańcuchu. Zauważyłem, że konkurencja w większości wciąż zajmuje się prostymi oraklami do podawania cen lub po prostu korzysta z popularności Nvidii, podczas gdy Vanar tworzy rodzimą na łańcuchu środowisko do wnioskowania. Jest jeszcze jeden ciekawy punkt; jeśli dokładnie przeliczyć liczby, można zauważyć, że model ekonomiczny Vanar jest niezwykle przyjazny dla interakcji AI w wysokiej częstotliwości. Dla programistów nie chodzi o setki tysięcy fałszywych TPS na sekundę, ale o środowisko wykonawcze, które potrafi obsługiwać wnioskowanie, przechowywać pamięć i jest zgodne z przepisami. Narracja o zerowej emisji węgla dla wielu ludzi wydaje się nieistotna, ale w kontekście eksplozji zużycia energii w treningu dużych modeli, to w rzeczywistości jest bilet wstępu dla wielu gigantów Web2. Nie daj się zwieść hałasowi na rynku; kiedy przypływ ustąpi, trzeba będzie zobaczyć, kto tak naprawdę nosił spodnie, a infrastruktura, która może naprawdę udźwignąć gospodarkę maszyn, zasługuje na następną wielką falę wzrostu. #vanar $VANRY
Pożegnanie z iluzjami: w architekturze Vanara w końcu poczułem przemysłowy zapach Web3
Patrząc na ekran, gdzie ciągle skaczą opłaty za gaz i logi błędów kilku agentów AI, popadłem w głęboką frustrację. Ta frustracja nie wynika z braku snu, lecz z poczucia rozdarcia w technologicznym zrozumieniu. W ciągu ostatniego tygodnia, jak obsesyjny człowiek, próbowałem wdrożyć nawet najbardziej podstawową logikę automatyzacji łańcuchowej na Layer 2 Ethereum i Solanie, a rezultatem były tylko problemy. Te publiczne łańcuchy, które krzyczą „napędzane AI”, po zdjęciu ich efektownych stron internetowych i białych ksiąg wciąż działają na starych, dostosowanych do DeFi logikach. Gdy przygotowywałem się do wyłączenia komputera i przyznania, że narracja AI w tej branży to tylko kolejna bańka spekulacyjna, przypadkiem otworzyłem dokumentację dewelopera @Vanarchain . Gdy to zobaczyłem, moje wcześniej zablokowane myśli zostały obudzone przez jakąś odległą, inżynieryjną intuicję. Nie zamierzam opowiadać wam historii o stówkach, chcę tylko porozmawiać o tym, dlaczego Vanar daje mi poczucie autentyczności, które wykracza poza niskie gusta, oraz jak mocno uderzyło to w twarze tych rzekomo wydajnych publicznych łańcuchów.