Stavo confrontando le risposte di due diversi strumenti AI all'inizio di questa settimana. Entrambe le risposte sembravano curate e sicure di sé. Ma quando ho controllato un dettaglio in uno di essi, si è scoperto che il modello aveva silenziosamente inventato una fonte. Niente di drammatico, solo un piccolo allucinazione. Tuttavia, mi ha fatto riflettere su quanto spesso ciò accada probabilmente senza che nessuno se ne accorga. È qui che "Mira Network" diventa interessante...
Mira si concentra sull'affidabilità piuttosto che sulla pura potenza dell'AI. Invece di fidarsi della risposta di un singolo modello, il protocollo tratta l'"output dell'AI" come qualcosa che necessita di verifica. Quando un modello genera contenuti, la risposta viene suddivisa in affermazioni più piccole. Queste affermazioni vengono poi verificate attraverso una rete di modelli AI indipendenti e validatori.
Il risultato è più vicino al "consenso intorno alle informazioni" piuttosto che semplicemente accettare ciò che un sistema ha prodotto...
Una volta che queste affermazioni superano la verifica, i risultati possono essere ancorati onchain. Questo crea un record trasparente che mostra come le informazioni siano state validate, riducendo la dipendenza da un singolo fornitore o da un sistema centralizzato.
Ciò che mi piace di questo approccio è che Mira non presume che l'AI smetterà improvvisamente di fare errori. Invece, costruisce un'infrastruttura che aiuta a filtrare quegli errori. In questo senso, il protocollo è meno incentrato sulla costruzione di un'AI più intelligente e più sulla costruzione di "infrastruttura di fiducia per la conoscenza generata dall'AI."