La prima cosa che ho fatto quando ho iniziato a leggere su Mira Network è stata imbattersi in un altro complotto conosciuto. Un'iniziativa blockchain che ha tentato di correggere le allucinazioni dell'IA, avvolta in parole d'ordine sul consenso e incentivi in token. Ho osservato quella tendenza troppe volte per essere naturalmente sospettoso.

Ma più approfondivo, più i miei risultati erano inquietanti. Questo perché Mira non sta solo cercando di migliorare l'IA. Sta dolcemente dubitando dell'intero percorso che l'IA ha intrapreso.

E lì è dove si trova l'aspetto interessante

Il paradosso nascosto dell'IA: progressi che diventano una responsabilità di per sé

Il progresso dell'IA è tipicamente discusso in termini di dimensioni. Modelli più grandi. Test migliori. Maggiore potere di ragionamento. Eppure, ciò che ho cominciato a vedere è ciò che la maggior parte di noi non vuole vedere:

Qualsiasi progresso nell'IA rende la verifica più difficile.

Non è ovvio all'inizio. Pensaci. Gli errori di un'IA erano evidenti quando era debole. I modelli ora sono altamente sviluppati, le loro imprecisioni sono così sottili e dipendenti dal contesto e di solito indistinguibili dalla verità attuale. L'output è professionale, disciplinato e sicuro, anche nei casi sbagliati. C'è una strana contraddizione in tutto ciò. Più avanzata è l'IA, più richiede lavoro umano per verificarla. E questo non è solo teoria. Questo cambiamento è stato riflesso nei dati. Con miliardi di token elaborati da Mira stessa ogni giorno, questo è un'indicazione che qualcosa è fuori dall'ordinario: l'uso dell'IA sta aumentando a un ritmo che la verifica umana non può eguagliare. Questo è il vero collo di bottiglia. Non intelligenza. Non calcolo. Verifica!

Cosa dire dell'alternativa: potrebbe non essere un problema di allucinazione ma di responsabilità?

La maggior parte dei progetti presenta il dilemma come allucinazione. L'IA è un fabbricatore di cose e dovremmo minimizzare le allucinazioni. Credo che inquadrare non sia completo dopo aver studiato il design di Mira. Il vero problema non è il fatto che l'IA sia sbagliata. Qui il problema è che l'IA non è mai sbagliata.

La responsabilità definisce il comportamento nei sistemi umani. Gli scienziati presentano articoli con la speranza che vengano valutati da pari. Gli analisti finanziari effettuano le chiamate perché sono sicuri di essere giudicati in base ai risultati. Anche i mercati funzionano su un senso di responsabilità: le scommesse sbagliate costano. L'IA, a sua volta, lavora in un vuoto. Non c'è costo intrinseco nella produzione di output errati. Il sistema proposto da Mira presenta l'elemento che non è troppo ma troppo forte: responsabilità economica verso il ragionamento. I nodi che controllano erroneamente, perdono stake. I nodi che concordano con il consenso ricevono ricompense. Questo potrebbe apparire, a prima vista, un normale design crittografico. Tuttavia, quando lo si considera di più, in effetti sta portando a un nuovo concetto: gli output dell'IA non vengono più prodotti. Sono stati dimostrati economicamente solidi. Questo è un altro paradigma.

Mira sta commercializzando la verità.

Più esaminavo l'architettura di Mira, più cominciavo a pensare che fosse qualcosa che non mi aspettavo: non un protocollo ma un mercato.

Un mercato in cui la verità prevale. Ogni affermazione si trasforma in un bene di valore. Ogni nodo è un scommettitore su se sia corretto. L'accordo è scoperta del prezzo. Questo non è ciò a cui siamo abituati a pensare in termini di conoscenza. L'autorità tradizionalmente è la fonte della verità. Ciò che è giusto è determinato da istituzioni, specialisti o strutture centralizzate. Mira dà a quella nozione un'inversione. Afferma che incentivi distribuiti e competizione possono dare origine alla verità. Questo ricorda i mercati finanziari, piuttosto che i sistemi di IA.

I mercati non sono a conoscenza del prezzo giusto di un bene. Lo apprendono partecipando, discutendo e raggiungendo un compromesso. È la stessa cosa che Mira sta applicando alle informazioni. E questa è un'idea radicale.

La parte di cui nessuno parla: la verifica ha anche modalità di fallimento.

#Mira

$MIRA

MIRA
MIRA
--
--

@Mira - Trust Layer of AI