Over the few days I have been looking into the design philosophy of the Midnight Network. One thing that really caught my attention is data privacy. Most blockchains make you choose between being transparent and keeping things private.. The Midnight Network is trying to do both by using something called zero-knowledge proofs and selective disclosure.
What I think is really cool is how the Midnight Network keeps governance and transaction energy separate using the NIGHT and DUST resources. This way of doing things could make it easier for real businesses to use applications that care about privacy. If the Midnight Network works like it is supposed to it might make a new kind of application possible. This is an application where the Midnight Network makes it easy for people to own their data and use it at the same time. The Midnight Network could be really important, for the future of the Midnight Network and its users. @MidnightNetwork #night $NIGHT
Architektura Prywatności: Dlaczego Midnight jest więcej niż tylko blockchain
W rozwijającym się krajobrazie Web3 często mówimy o prywatności, jakby była to samodzielna cecha, "moneta prywatności" lub "ukryty basen." Ale po dokładnym przyjrzeniu się projektowi protokołu Midnight, zdałem sobie sprawę, że ta perspektywa jest zbyt wąska. Midnight nie próbuje być tylko kolejnym prywatnym rejestrem; pozycjonuje się jako globalna warstwa usługowa, która eksportuje ochronę danych do całego ekosystemu wielołańcuchowego. To, co mnie fascynuje w tym podejściu, to jak rozwiązuje ono "pułapkę płynności" prywatności. Zwykle, jeśli chcesz prywatności, musisz przenieść swoje aktywa na konkretny łańcuch i pozostać tam. Midnight zmienia tę dynamikę, działając jako łańcuch partnerski, który obserwuje i współdziała z innymi sieciami, takimi jak Cardano i Ethereum.
Midnight: Globalna Warstwa Usług dla Ochrony Danych
Podczas głębszego zanurzenia się w specyfikacje techniczne protokołu Midnight, zauważyłem, że pomijam podstawową gospodarkę z dwoma tokenami i zamiast tego skupiam się na tym, jak system działa jako warstwa usług między łańcuchami. To, co przykuło moją uwagę podczas drugiego czytania, to nie tylko to, że sieć zapewnia prywatność, ale jak eksportuje tę prywatność do innych ekosystemów poprzez wysoko zorganizowany Rynek Zdolności i złożony model Agenta. Logika Obserwowalności Między Łańcuchami Jednym z bardziej zaawansowanych mechanizmów opisanych w dokumencie jest obserwowalność między łańcuchami. Moim zdaniem, to jest tajny składnik, który pozwala Midnight działać jako sidechain lub partner chain bez konieczności opuszczania przez użytkowników swojej sieci domowej. Biała księga wyjaśnia, że protokół może obserwować stan innych blockchainów, szczególnie wspominając Cardano i Ethereum, co pozwala mu uruchamiać akcje na Midnight na podstawie wydarzeń dziejących się gdzie indziej.
Na tygodniowym wykresie, likwidacje są mocno skupione na ekstremach. W dół, duży klaster znajduje się w okolicach 65–64K, podczas gdy likwidacje w górę są skoncentrowane powyżej poprzednich tygodniowych szczytów w pobliżu 74K. Te górne klastry prawdopodobnie nie zostaną zmyte, chyba że cena najpierw odzyska strefę 71K.
W międzyczasie, klaster likwidacji obecnie buduje się wokół 70K, co również pokrywa się z poziomem 0.5 poprzedniej tygodniowej świecy. To może działać jak magnes dla ceny w krótkim okresie i potencjalnie zostać zmyte przed jakimkolwiek kontynuowaniem w dół w kierunku płynności spoczywającej poniżej. #StockMarketCrash #Iran'sNewSupremeLeader #Web4theNextBigThing? #Trump'sCyberStrategy #RFKJr.RunningforUSPresidentin2028
Zajmowałem się zdecentralizowaną infrastrukturą AI i ciągle myślę o tym, jak ważna będzie weryfikacja. Teraz AI może tworzyć rzeczy, które wyglądają naprawdę dobrze, ale nie zawsze jesteśmy pewni, czy są one poprawne. To, co mi się podoba w podejściu Mira, to to, że nie traktuje ono tego, co mówi AI, jako prawdę. Zamiast tego testuje wyniki AI, aby upewnić się, że są one poprawne. Podejście Mira przekształca to, co mówi AI, w twierdzenia, które można sprawdzić, a także pozwala wielu różnym modelom spojrzeć na te twierdzenia samodzielnie. To sprawia, że system staje się bardziej odpowiedzialny, co jest czymś, czego większość systemów AI nie ma dzisiaj. Myślę, że tego rodzaju sieć weryfikacyjna mogłaby być bardzo ważna, jeśli chcemy, aby AI działało dobrze w świecie. Podejście Mira i jego sieć weryfikacyjna to rzeczy, o których myślę dużo, gdy rozważam zdecentralizowaną infrastrukturę AI i jak weryfikacja będzie coraz ważniejsza niż generacja.
Dlaczego AI potrzebuje infrastruktury weryfikacyjnej. Moje zdanie po studiowaniu projektu Mira
Przez ostatnie kilka lat AI poczyniła niesamowite postępy. Modele potrafią pisać eseje, generować kod, a nawet tworzyć obrazy lub filmy. Im więcej badam, jak te systemy działają, tym bardziej uświadamiam sobie, że inteligencja bez niezawodności to fundament. AI jest jak budynek, który potrzebuje podstawy, aby stać. Podczas studiowania pomysłów przedstawionych w białej księdze Mira, jeden temat ciągle przychodził mi na myśl: AI nie zawodzi, ponieważ brakuje mu wiedzy, zawodzi, ponieważ brakuje mu weryfikacji. Ciągle myślałem o tym pomyśle i o tym, jak odnosi się do AI.
Przemyślenie niezawodności AI: Dlaczego zdecentralizowana weryfikacja jest warstwą
Po przeczytaniu białej księgi Miri zacząłem myśleć o tym, jak potężna jest sztuczna inteligencja, ale także jak krucha jest nadal. Często rozmawiamy o modelach językowych i o tym, jak dobrze potrafią mówić, być kreatywne i pracować szybko. Ale jeśli spojrzymy bliżej, możemy zobaczyć, że systemy AI mają ograniczenie: opierają się na prawdopodobieństwie. Nie "wiedzą" naprawdę rzeczy tak jak ludzie. Po prostu dokonują prognoz. Prognozy, niezależnie od tego, jak dobre są, mogą być błędne. Czasami ten błąd objawia się jako coś, co nie jest prawdziwe. Czasami objawia się jako stronniczość. Bez względu na to, jak duży lub dobrze wytrenowany jest pojedynczy model, ten problem nigdy naprawdę nie znika.
Zbadałem, jak działa Mira i zauważam, że staje przed problemem z AI: nie zawsze jest niezawodna. AI może dawać odpowiedzi, które brzmią dobrze. To nie oznacza, że są poprawne. Mira radzi sobie z tym problemem w pewien sposób.
* Rozkłada odpowiedzi na twierdzenia, które można sprawdzić.
* Następnie pozwala sieci modeli zgodzić się na to, co jest prawdziwe.
To, co uważam za naprawdę potężne, to sposób, w jaki wykorzystuje ekonomię, aby upewnić się, że węzły są uczciwe.
Węzły muszą postawić coś wartościowego na szali, więc nie ma sensu, aby oszukiwały.
Nie chodzi o to, aby uczynić AI większym i lepszym; chodzi o to, aby uczynić AI odpowiedzialnym.
Dla mnie to wydaje się krokiem w kierunku posiadania AI, które może działać samodzielnie i być godne zaufania.
Model Grafu Hybrydowego to sposób na nagradzanie prawdziwej pracy
Kiedy czytałem dokumentację Fabric Foundation, natknąłem się na model wartości grafu hybrydowego. Naprawdę mnie to zastanowiło. To nie jest coś, co zazwyczaj widzisz w systemach blockchain. Model Grafu Hybrydowego nie nagradza ludzi za uczestnictwo w zależności od tego, ile pieniędzy zarabiają lub tylko na podstawie tego, ile robią. Model Grafu Hybrydowego nagradza ludzi na podstawie obu tych rzeczy. Zmienia to znaczenie każdej z nich, gdy sieć staje się starsza. Na początku to, co robią ludzie, jest ważniejsze, ponieważ system wciąż się rozwija.
Im więcej uczę się o Fabric, tym bardziej podoba mi się, jak sprawdza, czy wszystko działa poprawnie. Nie zakłada, że roboty zawsze będą działać idealnie. Zamiast tego zakłada, że czasami mogą zawieść.
* Upewnia się, że osoby odpowiedzialne za roboty ponoszą odpowiedzialność za to, co się dzieje.
* Muszą postawić jakieś pieniądze na linii, jakby to była gwarancja.
* Inni ludzie obserwują, aby upewnić się, że wszystko jest w porządku.
* Jeśli ktoś próbuje oszukać, wpada w kłopoty. Traci pieniądze.
Taki sposób działania wydaje mi się dojrzały. Kiedy maszyny zaczynają wykonywać prace, nie możesz po prostu ufać, że będą działać.
Musisz upewnić się, że są zaprojektowane tak, aby być godnymi zaufania.
Fabric ma sposób sprawdzania, czy roboty działają poprawnie. Daje im wyzwanie do wykonania.
Jeśli próbują oszukać, kosztuje ich to dużo pieniędzy.
Myślę, że to jest rodzaj myślenia, którego potrzebujemy, jeśli roboty mają pracować na świecie.
Fabric zakłada, że niepowodzenie jest możliwe. Buduje zasady wokół tego.
System oparty na wyzwaniach Fabric jest interesujący, ponieważ sprawia, że oszukiwanie nie jest opłacalne.
Myślę, że Fabric jest na dobrej drodze, z jego modelem weryfikacji.
Fabric naprawdę skłania mnie do myślenia o tym, jak roboty mogą działać.
Fabric Foundation dąży do przyszłości, w której ludzie i roboty mogą rozwijać się razem
Ostatnio myślałem o tym, jak robotyka i sztuczna inteligencja się rozwijają. Wydaje się, że co miesiąc maszyny stają się coraz lepsze i lepsze i stają się większą częścią naszego codziennego życia.. Wciąż się zastanawiam, kto tak naprawdę rządzi tym wszystkim. To wtedy zacząłem interesować się Fabric Foundation. @Fabric Foundation nie jest innym projektem związanym z robotami. Myślę, że to, co jest w nim inne, to fakt, że nie traktuje robotów jako coś, co jedna firma może posiadać. Zamiast tego stara się stworzyć system, w którym wiele osób może przyczyniać się i być częścią tego, jak to działa.
Jedna rzecz, której nie widzę, że wiele osób o tym rozmawia w @Fabric Foundation to jego projekt emisji. Większość sieci ma stałą podaż tokenów. Liczą, że więcej ludzi zacznie go używać. Fabric robi to inaczej. Emisje zmieniają się w zależności od tego, jak ludzie faktycznie korzystają z sieci i jak dobrze działają usługi.
To jest zmiana. To oznacza, że nagrody są oparte na tym, jak sieć faktycznie działa, a nie na tym, co ludzie myślą, że może zrobić. Jeśli roboty nie są zbyt często używane, system stara się zachęcić więcej ludzi do uczestnictwa. Jeśli jakość usługi nie jest dobra, nagrody są zmniejszane.
Dla mnie to wygląda jak prawdziwy system ekonomiczny, a nie tylko dużo ekscytacji. Nie chodzi o budowanie robotów. Chodzi o zbudowanie systemu, który może się zmieniać i rozwijać, gdy maszyny i ludzie współpracują. Fabric naprawdę polega na tworzeniu systemu, który może ewoluować w czasie. To jest to, co uważam za bardzo interesujące, jeśli chodzi o Fabric i jego adaptacyjny projekt emisji. #ROBO $ROBO
Ekonomiczny projekt Miry: Dlaczego zachęty mają większe znaczenie niż modele
Kiedy ludzie patrzą na projekty infrastruktury AI, koncentrują się na modelach. Zbiory danych, lepsze projekty, więcej szczegółów. Uważam, że jedną z najbardziej niedocenianych części niezawodności AI jest projektowanie zachęt. Dlatego uważam, że ekonomiczny system Miry jest interesujący. Nie tylko próbuje poprawić wyniki AI na poziomie modelu. Buduje system, w którym presja ekonomiczna zmusza uczestników do uczciwego weryfikowania. W kryptowalutach zachęty są wszystkim. Ukryta słabość weryfikacji AI Jeśli poprosisz modele AI o weryfikację twierdzenia, brzmi to mocno. Ale jest problem: zadania weryfikacyjne często stają się ustrukturyzowanymi pytaniami z ograniczonymi odpowiedziami. W przypadkach losowe zgadywanie staje się możliwe.
Im więcej uczę się o sztucznej inteligencji, tym bardziej myślę, że dużym problemem nie jest to, jak mądra ona jest. To, czy możemy jej zaufać.
@Mira - Trust Layer of AI zajmuje się tym problemem w sposób, który naprawdę mi się podoba. Tworząc kolejny ogromny model i mając nadzieję, że popełni mniej błędów, buduje system, w którym wiele osób sprawdza pracę AI. Oto jak to działa:
* Każda odpowiedź jest rozkładana na oświadczenia
* Wiele różnych modeli sprawdza te oświadczenia
* Sprawdzający są zmotywowani do bycia uczciwymi, ponieważ mają coś do stracenia
Co uważam za interesujące, to że ten system sprawia, że dla węzłów jest racjonalne być uczciwym. Muszą postawić coś wartościowego na szali, więc nie ma sensu, aby oszukiwały. To wydaje się być kolejnym krokiem dla kryptowalut. Nie tylko zapewnienie bezpieczeństwa transakcji, ale także utrzymanie uczciwości AI.
Mira: Dlaczego wierzę, że zdecentralizowana weryfikacja jest warstwą dla AI
W ciągu ostatniego roku dużo myślałem o jednym kluczowym problemie w AI: nadal nie możemy w pełni ufać AI. Myślę o tym problemie codziennie. Duże modele językowe są bardzo potężne. Mogą pisać kod, analizować dane, przygotowywać argumenty i wyjaśniać złożone tematy w kilka sekund. Jednocześnie mogą pewnie produkować nieprawidłowe informacje. Postrzegam to jako problem. Halucynacje, stronniczość i niespójności nie są przypadkami marginalnymi. To są ograniczenia modeli probabilistycznych. To jest luka, która przykuła moją uwagę, gdy badałem Mirę.
Właśnie dowiedziałem się o @Mira - Trust Layer of AI . To naprawdę niesamowite. Mira nie tylko przyjmuje to, co mówi jedna sztuczna inteligencja. Rozkłada to, co mówi sztuczna inteligencja, na części i ma wiele różnych modeli sztucznej inteligencji, które sprawdzają każdą część. Odpowiedź, którą otrzymujemy, jest uznawana za poprawną tylko wtedy, gdy wszystkie te różne modele się zgadzają. To znacznie zmniejsza prawdopodobieństwo, że odpowiedź będzie błędna lub stronnicza.
Ludzie, którzy sprawdzają odpowiedzi, również muszą wykonać pewną pracę, aby upewnić się, że są poprawne. Muszą zainwestować część swoich tokenów i przeprowadzić kontrole, aby upewnić się, że wszystko jest w porządku. Jeśli wykonają zadanie, otrzymują wynagrodzenie.
Myślę, że Mira to pomysł, ponieważ wykorzystuje wiele różnych modeli sztucznej inteligencji oraz nowy sposób używania pieniędzy, aby upewnić się, że odpowiedzi są poprawne. To sprawia, że myślę, że w końcu możemy zaufać temu, co mówi sztuczna inteligencja.
Jestem naprawdę podekscytowany Mirą, ponieważ wykorzystuje inteligencję oraz nowy sposób używania pieniędzy, aby powiedzieć nam, co jest prawdą. To sposób, by upewnić się, że otrzymujemy prawidłowe odpowiedzi. Mira i jej sposób używania inteligencji oraz pieniędzy, aby uzyskać prawdę, to coś, co uważam za naprawdę fajne. #Mira $MIRA
Co naprawdę lubię w @Fabric Foundation to nie roboty, które mają. Chodzi o to, jak chcą na tym zarabiać. Fabric nie chce, aby jedna firma miała kontrolę nad wszystkimi maszynami. Chcą stworzyć sieć, w której ludzie mogą pomagać swoimi umiejętnościami, sprawdzając informacje, czy wszystko jest poprawne, lub sprzętem. W ten sposób ludzie mogą być częścią tego, jak system się rozwija.
Myślę, że to pomysł, że roboty mogą mieć części, które można dodawać lub usuwać jak klocki. Te części mogą być jak umiejętności, które robot może nabyć. Podoba mi się, że te umiejętności mogą być rozwijane w sposób otwarty, aby wszyscy mogli zobaczyć, co się dzieje. Dobrze też, że Fabric chce upewnić się, że praca, którą wykonują roboty, jest prawdziwa, a ludzie są odpowiedzialni za to, co robią. Jeśli roboty mają być częścią naszego życia, chcę, aby były tworzone w sposób otwarty i uczciwy, tak jak Fabric robi to z pomocą społeczności.
Jestem bardzo podekscytowany @Fabric Foundation . Uważa, że roboty powinny szybko dzielić się wiedzą, aby każdy nowy robot mógł uczyć się od tysięcy innych z daleka.
Co mi się podoba, to to, że chcą zbudować tę technologię w odpowiedzialny sposób. Chcą upewnić się, że roboty przestrzegają wartości, gdy się uczą i stają się lepsze.
Pomysł używania tokenów, aby pomóc ludziom współpracować i wnosić wkład, wydaje się mądry. Nie wydaje się to być trendem.
Wygląda to jak przyszłość, w której technologia i ludzie współpracują ze sobą sprawiedliwie.
Czytanie o tym rzeczywiście sprawia, że czuję nadzieję i inspirację.
Protokół Fabric wydaje się być czymś, co naprawdę może wprowadzić zmiany.
Chodzi o to, aby roboty i ludzie współpracowali ze sobą.
Skupienie się na upewnieniu się, że roboty są zgodne z tym, co ludzie uważają za słuszne.
Przyszłość robotyki nie powinna należeć do monopolu
Wydaje się, że mrugnęliśmy i nagle roboty wyszły z science fiction i weszły do naszej codziennej rzeczywistości. Dzięki szybkiemu postępowi AI i dużym modelom językowym, które teraz aktywnie kontrolują roboty za pomocą kodu open-source, granica między danymi cyfrowymi a światem fizycznym zanika. Przyszłość, w której żyjemy i pracujemy obok wysoko wydajnych maszyn, szybko staje się jasna. Ale gdy to obserwuję, ważny niepokój rzuca cień na ekscytację: ta fizyczna i cyfrowa automatyzacja zagraża koncentracji bezprecedensowej władzy i bogactwa w rękach kilku ogromnych korporacji. Stoimy na krawędzi gospodarki "wygrywa ten, kto bierze wszystko", gdzie infrastruktura robotyczna jutra łatwo może stać się zamkniętym ekosystemem kontrolowanym przez pojedynczy podmiot.
Wszyscy czekamy, aż sztuczna inteligencja zajmie się sprawami w prawie i opiece zdrowotnej, ale halucynacje sztucznej inteligencji wciąż powstrzymują sztuczną inteligencję. Mira wskazuje na prawdę: pojedynczy model sztucznej inteligencji zawsze będzie miał swoje ograniczenia. Nie można mieć precyzji, nie wprowadzając uprzedzeń do systemu sztucznej inteligencji. Podejście Miry jest inne. Nie próbują zbudować sztucznej inteligencji, a raczej zdecentralizowanej sieci do weryfikacji sztucznej inteligencji. Chodzi o przejście poza punkt, w którym sztuczna inteligencja jest wystarczająco dobra, do punktu, w którym sztuczna inteligencja jest udowodniona jako wiarygodna. @Mira - Trust Layer of AI #Mira $MIRA