Ripensare l'affidabilità dell'IA: perché la verifica decentralizzata è il livello
Dopo aver letto il Whitepaper di Mira, ho iniziato a pensare a quanto sia potente l'IA, ma anche a quanto sia fragile. Parliamo spesso di modelli linguistici e di quanto siano bravi a parlare, essere creativi e lavorare velocemente. Ma se guardiamo più da vicino, possiamo vedere che i sistemi di IA hanno una limitazione: si basano sulla probabilità. Non "sanno" davvero le cose come gli esseri umani. Fanno solo previsioni. Le previsioni, non importa quanto siano buone, possono essere sbagliate. A volte questo errore si presenta come qualcosa che non è vero. A volte si presenta come un pregiudizio. Non importa quanto sia grande o ben addestrato un singolo modello, questo problema non scompare mai realmente.
Ho esaminato come funziona Mira e ciò che noto è che affronta un problema con l'IA: non è sempre affidabile. L'IA può dare risposte che sembrano buone. Questo non significa che siano giuste. Mira affronta questo problema in un modo.
* Scomponendo le risposte in affermazioni che possono essere verificate.
* Poi consente a una rete di modelli di concordare su ciò che è vero.
Ciò che penso sia davvero potente è il modo in cui utilizza l'economia per garantire che i nodi siano onesti.
I nodi devono mettere a rischio qualcosa di valore, quindi non ha senso per loro imbrogliare.
Non si tratta di rendere l'IA più grande e migliore; si tratta di rendere l'IA responsabile.
Per me questo sembra un passo verso avere un'IA che può funzionare autonomamente ed essere fidata.
The Hybrid Graph Model is a way to reward real work
When I was reading the documentation of Fabric Foundation I came across the Hybrid Graph Value model. It really got me thinking. This is not something you usually see in blockchain systems. The Hybrid Graph Model does not reward people who participate based on how much money they make or just based on how much they do. The Hybrid Graph Model rewards people based on both of these things. It changes the importance of each one as the network gets older. At the beginning what people do is more important because the system is still growing. On the Hybrid Graph Model cares more about the real work that people do and the money they make. I think this is a way to do things because it makes sure that people who help out at the beginning are not ignored just because the system is not making a lot of money yet. What I really like about the Hybrid Graph Model is that it stops people from cheating the system. If someone tries to cheat by making transactions the Hybrid Graph Model does not give them any credit for it. The Hybrid Graph Model only rewards people who really participate and do work. It does not reward people who just try to trick the system. To me the Hybrid Graph Model is trying to do something The Hybrid Graph Model is not just giving out tokens it is trying to figure out who is really contributing to the system. This is a problem to solve because the system is made up of a lot of different parts, including robots and users. The Hybrid Graph Model tries to solve this problem by combining what people do how money they make and how they are connected to each other. I think this is a way to try to solve the problem. If we want robotics networks to work in the world we need to make sure that people have a good reason to participate. The Hybrid Graph Model is trying to do this by making sure that people are rewarded for the work they do. The Hybrid Graph Model. Adapts as the system grows which I think is exactly what it should do. @Fabric Foundation #ROBO $ROBO
Più imparo su Fabric, più mi piace come controlla se tutto funziona correttamente. Non presume che i robot funzioneranno sempre perfettamente. Invece, presume che a volte potrebbero fallire.
* Si assicura che le persone responsabili dei robot siano responsabili di ciò che accade.
* Devono mettere un po' di soldi in gioco come garanzia.
* Altre persone osservano per assicurarsi che tutto sia a posto.
* Se qualcuno cerca di imbrogliare, finisce nei guai. Perde soldi.
Questo modo di fare le cose mi sembra maturo. Quando le macchine iniziano a svolgere lavori, non puoi semplicemente fidarti che funzioneranno.
Devi assicurarti che siano progettate per essere affidabili.
Fabric ha un modo di controllare se i robot stanno funzionando correttamente. Gli dà una sfida da completare.
Se cercano di imbrogliare, costa loro molti soldi.
Penso che questo sia il tipo di pensiero di cui abbiamo bisogno se i robot devono lavorare nel mondo.
Fabric presume che il fallimento sia possibile. Costruisce regole attorno ad esso.
Il sistema basato su sfide di Fabric è interessante perché rende imbrogliare non conveniente.
Penso che Fabric sia sulla strada giusta, con il suo modello di verifica.
Fabric mi fa davvero riflettere su come i robot possono lavorare.
Fabric Foundation is working towards a future where humans and robots can grow together
Lately I have been thinking about how robotics and artificial intelligence are advancing. It seems like every months machines are getting better and better and are becoming a bigger part of our daily lives.. I keep wondering who is actually in charge of all this. That is when I started looking into Fabric Foundation. @Fabric Foundation is not another project that involves robots. What I think is different about it is that it does not treat robots as something that one company can own. Instead it is trying to create a system where lots of people can contribute and be a part of how it works. I really like the idea that robots can learn skills like we add new apps to our phones. These skills can be. Changed later on. This makes the system able to change and adapt. Another thing that I think is important is the way Fabric Foundation is set up economically. The way they use tokens is not about giving people rewards for doing nothing. It is about people doing work and contributing. If someone does work they will be penalized. This means that people have to be responsible if they want to be a part of it. What I like the most is that Fabric Foundation is thinking about the term. They want to make sure that humans and machines work together. As robots get more advanced it will not just be about how they work but also about how they affect society and the economy. We need to make sure that the benefits of robots are shared fairly and that no one person or company has much power. Fabric Foundation is already thinking about these questions. For me this is not about robots. It is about creating systems that're fair and transparent. If we want robots to be a part of our future then we need to make sure they are built in a way that is open and responsible. That is why I am interested, in @Fabric Foundation . #ROBO $ROBO
Una cosa di cui non vedo molte persone parlare in @Fabric Foundation è il suo design di emissione. La maggior parte delle reti ha un'offerta fissa di token. Sperano che più persone inizino a usarlo.. Fabric fa le cose in modo diverso. Le emissioni cambiano in base a come le persone stanno effettivamente utilizzando la rete e a quanto bene funzionano i servizi.
Questo è un cambiamento. Significa che le ricompense sono basate su come la rete sta effettivamente funzionando, non su ciò che le persone pensano possa fare. Se i robot non vengono utilizzati molto, il sistema cerca di far partecipare più persone. Se la qualità del servizio non è buona, le ricompense vengono ridotte.
Per me questo sembra un vero sistema economico piuttosto che solo un sacco di eccitazione. Non si tratta di costruire robot. Si tratta di costruire un sistema che può cambiare e crescere mentre le macchine e gli esseri umani lavorano insieme. Fabric riguarda davvero la creazione di un sistema che può evolversi nel tempo. Questo è ciò che penso sia così interessante, riguardo a Fabric e al suo design di emissione adattivo. #ROBO $ROBO
Il Design Economico di Mira: Perché gli Incentivi Contano di Più dei Modelli
Quando le persone guardano ai progetti di infrastruttura dell'IA, si concentrano sui modelli. Dataset, design migliori, più dettagli. Penso che una delle parti più trascurate dell'affidabilità dell'IA sia il design degli incentivi. Ecco perché trovo interessante il setup economico di Mira. Non cerca solo di migliorare i risultati dell'IA a livello di modello. Costruisce un sistema in cui la pressione economica spinge i partecipanti a verificare onestamente. Negli incentivi crypto, tutto è importante. La Debolezza Nascosta della Verifica dell'IA Se chiedi ai modelli di IA di verificare un'affermazione, sembra forte. Ma c'è un problema: i compiti di verifica spesso diventano domande strutturate con risposte limitate. In alcuni casi, indovinare casualmente diventa possibile.
Più imparo sull'Intelligenza Artificiale, più penso che il grande problema non sia quanto sia intelligente. È se possiamo fidarci di essa.
@Mira - Trust Layer of AI tratta di questo problema in un modo che mi piace davvero. Creando un altro enorme modello e sperando che commetta meno errori, costruisce un sistema in cui molte persone controllano il lavoro delle IA. Ecco come funziona:
* Ogni risposta è suddivisa in affermazioni
* Molti modelli diversi controllano queste affermazioni
* I controllori sono motivati a essere onesti perché hanno qualcosa da perdere
Quello che trovo interessante è che questo sistema rende razionale per i nodi essere onesti. Devono mettere a rischio qualcosa di valore, quindi non ha senso per loro imbrogliare. Questo sembra un passo successivo per le criptovalute. Non solo mantenere le transazioni sicure, ma mantenere l'IA onesta.
Mira: Perché credo che la verifica decentralizzata sia lo strato per l'IA
Negli ultimi anni ho pensato molto a un problema fondamentale nell'IA: non possiamo ancora fidarci completamente dell'IA. Penso a questo problema ogni giorno. I modelli di linguaggio di grandi dimensioni sono molto potenti. Possono scrivere codice, analizzare dati, redigere argomentazioni e spiegare argomenti complessi in pochi secondi. Allo stesso tempo possono produrre informazioni errate con sicurezza. Vedo questo come un problema. Allucinazioni, pregiudizi e incoerenze non sono casi marginali. Sono limitazioni dei modelli probabilistici. Questo è il divario che ha attirato la mia attenzione quando ho studiato Mira.
Ho appena scoperto @Mira - Trust Layer of AI . È davvero incredibile. Mira non si limita a prendere ciò che dice un'intelligenza artificiale. Analizza ciò che dice l'intelligenza artificiale in parti e ha molti diversi modelli di intelligenza artificiale che controllano ogni parte. Riceviamo solo una risposta che sappiamo essere corretta quando tutti questi diversi modelli sono d'accordo. Questo rende molto meno probabile che la risposta sia sbagliata o parziale.
Le persone che controllano le risposte devono anche fare un po' di lavoro per assicurarsi che siano corrette. Devono mettere in gioco alcuni dei loro token e fare controlli per assicurarsi che tutto sia a posto. Se svolgono un lavoro, vengono pagati.
Penso che Mira sia un'idea perché utilizza molti modelli diversi di intelligenza artificiale e un nuovo modo di usare il denaro per garantire che le risposte siano corrette. Questo mi fa pensare che finalmente possiamo fidarci di ciò che dice l'intelligenza artificiale.
Sono davvero entusiasta di Mira perché utilizza intelligenza e un nuovo modo di usare il denaro per dirci cosa è vero. Questo è un modo per assicurarci di ottenere le risposte giuste. Mira e il suo modo di usare intelligenza e denaro per ottenere la verità è qualcosa che penso sia davvero interessante. #Mira $MIRA
Cosa mi piace davvero di @Fabric Foundation non sono i robot che hanno. È il modo in cui vogliono guadagnare da esso. Fabric non vuole che un'azienda sia responsabile di tutte le macchine. Vogliono creare una rete in cui le persone possano aiutare con abilità, informazioni e controllare se le cose sono corrette o hardware. In questo modo le persone possono far parte di come il sistema cresce.
Penso che sia un'idea che i robot possano avere parti che possono essere aggiunte o rimosse come blocchi. Queste parti possono essere come abilità che il robot può imparare. Mi piace che queste abilità possano essere sviluppate apertamente in modo che tutti possano vedere cosa sta succedendo. È anche positivo che Fabric voglia assicurarsi che il lavoro che i robot fanno sia reale e che le persone siano responsabili per ciò che fanno. Se i robot saranno parte delle nostre vite, voglio che siano realizzati in un modo che sia aperto e onesto, come ciò che Fabric sta facendo con la comunità per aiutare.
Sono super entusiasta per l'@Fabric Foundation . Pensa che i robot dovrebbero condividere rapidamente la conoscenza affinché ogni nuovo robot possa imparare da migliaia di altri lontani.
Quello che mi piace è che vogliono costruire questa tecnologia in modo responsabile. Vogliono assicurarsi che i robot seguano valori mentre apprendono e migliorano.
L'idea di usare token per aiutare le persone a lavorare insieme e contribuire sembra intelligente. Non sembra una cosa di moda.
Sembra un futuro in cui tecnologia e persone lavorano insieme in modo equo.
Leggere di questo mi rende davvero speranzoso e ispirato.
Il Fabric Protocol sembra qualcosa che può davvero fare la differenza.
Si tratta di robot e persone che lavorano insieme.
L'attenzione è nel garantire che i robot siano allineati con ciò che le persone pensano sia giusto.
Il Futuro della Robotica Non Dovrebbe Appartenere a un Monopolio
Sembra che abbiamo chiuso gli occhi e improvvisamente i robot siano emersi dalla fantascienza e siano entrati nella nostra realtà quotidiana. Con le prestazioni dell'IA che aumentano rapidamente e i modelli di linguaggio di grandi dimensioni ora che controllano attivamente i robot tramite codice open-source, la linea tra dati digitali e mondo fisico sta svanendo. Un futuro in cui viviamo e lavoriamo accanto a macchine altamente capaci sta rapidamente prendendo forma. Ma mentre osservo questo svilupparsi, una preoccupazione pressante oscura l'eccitazione: questa automazione fisica e digitale minaccia di concentrare un potere e una ricchezza senza precedenti nelle mani di poche enormi corporazioni. Siamo in piedi sull'orlo di un'economia "chi vince prende tutto", dove l'infrastruttura robotica di domani potrebbe facilmente diventare un ecosistema chiuso controllato da un'unica entità.
Stiamo tutti aspettando che l'Intelligenza Artificiale gestisca le questioni nel diritto e nella salute, ma le allucinazioni dell'Intelligenza Artificiale stanno ancora trattenendo l'Intelligenza Artificiale. Il Mira sottolinea una verità: un singolo modello di Intelligenza Artificiale avrà sempre un limite. Non puoi avere precisione senza introdurre pregiudizi nel sistema di Intelligenza Artificiale. L'approccio di Mira è diverso. Non stanno cercando di costruire un'Intelligenza Artificiale, ma piuttosto una rete decentralizzata per verificare l'Intelligenza Artificiale. Si tratta di andare oltre il punto in cui l'Intelligenza Artificiale è solo abbastanza buona, fino al punto in cui l'Intelligenza Artificiale si dimostra affidabile. @Mira - Trust Layer of AI #Mira $MIRA
Ripensare l'affidabilità dell'IA come un problema di consenso
Ho letto il whitepaper di Mira e una cosa continua a rimanere nella mia mente: il whitepaper di Mira e il problema delle allucinazioni e dei bias dell'IA. Il whitepaper di Mira dice che questi non sono solo problemi con un modello o i suoi dati. Sono un problema che necessita di una soluzione che coinvolga l'intero sistema. Ogni grande modello di linguaggio ha un problema quando viene addestrato. Se lo rendi più preciso avrà un bias sistemico. Se provi a ridurre il bias sarà meno preciso. Il whitepaper di Mira mi ha aiutato a capire questo. Dice che le allucinazioni si verificano quando un modello non è preciso e fornisce risposte che non sono coerenti o sono troppo sicure. D'altra parte, il bias è quando un modello non è accurato e fornisce risposte che non sono vere.
Super entusiasta per il futuro dell'IA e @Mira - Trust Layer of AI ! Il loro sistema di verifica decentralizzato è un vero cambiamento di gioco, IA allucinante nucleare nella testa. Immagina il mondo in cui tutte le uscite dell'IA sono valide. Questo è ciò che $MIRA sta costruendo. Trova il motore per un'IA più responsabile!
Decodificare la Trasformazione dei Contenuti di Mira: Come i Dati Grezzi Diventano Verità Verificata
È piuttosto essenziale nel veloce mondo dell'Intelligenza Artificiale poter fare affidamento sui risultati che l'IA ci fornisce. L'IA comporrà contenuti creativi e accattivanti, ma tirerà anche fuori allucinazioni e dimostrerà pregiudizi. Mira Network sta facendo questo applicando un nuovo processo di Trasformazione dei Contenuti che converte l'output poco chiaro dell'IA in informazioni verificabili. Il problema dell'affidabilità dell'IATradizionale. I modelli linguistici di grandi dimensioni (LLM), che sono tipi di modelli di intelligenza artificiale, si basano sul prevedere la parola o la sequenza più probabile da seguire. A causa di ciò, le loro produzioni possono essere una imprecisione fattuale o non correlate alla realtà. Questa inferenza rende difficile la verifica diretta delle risposte e richiede solitamente assistenza umana, il che mina gli sforzi di un'intelligenza artificiale completamente autonoma. Mira Network altera il nostro modo di pensare riguardo agli output dell'IA. Invece di prendere tutto ciò che l'IA offre come verità assoluta, Mira lo esamina con un insieme di livelli di verifica che iniziano dividendo intelligentemente il materiale in unità più piccole.
Identità Robot Onchain: Cosa Richiedono i Robot Web3.
Abbiamo esaminato l'ecosistema della Fabric Foundation guardando alla sua missione e all'importanza del token $ROBO . Stiamo per discutere un altro concetto innovativo che definisce il futuro delle macchine a guida autonoma, l'Identità Robot Onchain o DID.
Il dilemma dell'Identità Robot in un Mondo Web2.
Le macchine intelligenti hanno esigenze speciali che non sono riconosciute dai vecchi sistemi. I robot non sono in grado di aprire conti bancari; ottenere passaporti e essere impiegati all'interno di regolamenti progettati per essere eseguiti da un umano. È necessario un sistema di identità sicura, stabilita e condivisa poiché i robot iniziano a diventare più autonomi e a partecipare ad attività economiche.
Soluzione per la Fabric Foundation, Identificatori Decentralizzati (DID).
La Fabric Foundation risolve questo fornendo ai robot Identità Onchain (DID). Tali identificatori sono non trasferibili, permanenti per il robot e verificabili nella blockchain. Permettono ai robot di
Dimostrare che sono effettivi e credibili in qualsiasi affare.
Conservare e transare con portafogli Web3. Creare un resoconto non giudicante delle cose che hanno realizzato e della loro efficacia.
Questo avviene attraverso l'uso di diversi servizi e smart contract nelle reti.
Sotto questo sistema, ogni robot nella rete Fabric è sottoposto a audit pubblico con un record non modificabile, che serve a mantenere tutti sulla retta via, oltre a prevenire comportamenti scorretti.
Identità Onchain Come l'Identità Onchain Abilita Operazioni Indipendenti.
Un robot può facilmente svolgere un numero di funzioni utilizzando un'identità onchain:
1. Ricevere remunerazione: Entrate derivanti dal completamento di lavori/servizi di $ROBO . 2. Acquistare il suo portafoglio Web3: Pagare la sua energia, dati o manutenzione. 3. Supporto: Utilizzare il suo track record e stake per aiutare a prendere decisioni sulla rete. 4. Lavorare insieme - Essere esplicitamente fiduciosi nei confronti dei colleghi e degli umani.
L'Ascesa dell'Economia dei Robot: Come il Fabric Protocol Abilita l'Interazione Macchina-a-Macchina
Il sogno di un mondo in cui le macchine lavorano in modo indipendente e partecipano a relazioni economiche si trasforma in uno in rapido sviluppo, non basato su una fiction speculativa ma in realtà. Una delle aree che guida questo cambiamento è The Fabric Foundation, che sta costruendo l'infrastruttura necessaria che descrive come l'Economia dei Robot. Questo articolo discuterà l'uso del Fabric Protocol per abilitare un nuovo paradigma di interazione macchina-a-macchina (M2M), fornendo un mercato del lavoro programmabile per i robot e consentendo l'esistenza di un'attività economica fluida tra agenti intelligenti.
La crisi di fiducia nell'IA: perché Mira Network è il pezzo mancante
L'intelligenza artificiale (IA) è un fenomeno che cambia l'era, ma ha una grande limitazione che ne limita la capacità di essere affidabile. Sebbene i modelli di IA attuali siano in grado di produrre risultati plausibili, spesso forniscono informazioni false definite allucinazioni o presentano un pregiudizio sottostante. Questo porta a una differenza tra le capacità teoriche dell'IA e il suo utilizzo in contesti ad alto rischio, come la sanità, il diritto e la finanza. Mira Network gestisce questo problema proponendo uno strato di verifica decentralizzato. Piuttosto che utilizzare un modello di IA che opera sulla base dell'intelligenza collettiva per verificare azioni e risultati ad ogni fase, Mira lavora con molti modelli di IA. Questo rende il contenuto generato dall'IA non solo plausibile, ma anche accurato e senza fiducia.