Non ho paura dell'IA poiché è una tecnologia potente. Questo mi preoccupa poiché è convincente. Non è che l'IA commetta errori ovvi che rappresentano il vero rischio. È perché fa piccoli errori - all'interno della fiducia. Siamo giunti a un'era in cui i modelli non aiutano più solo. Riassumono i mercati. Valutano il rischio. Raccomandano azioni. Presto, le eseguiranno. Ed ecco il fatto imbarazzante: La maggior parte dell'IA sarà fluente piuttosto che ottimizzata per la verifica. Questo funziona per i contenuti. Fallisce nell'allocazione di capitali, nella governance e nel coordinamento autonomo. Questa è la ragione per cui l'architettura della rete Mira è interessante. Non richiede che un modello sia giusto, ma considera invece la verità come qualcosa che deve resistere alla pressione. Le uscite sono suddivise in affermazioni discrete. • I validatori dell'IA non impiegati dall'azienda esaminano ogni affermazione. • Il consenso è formata da consenso distribuito. Questo cambia l'equazione. Viene trasformato in un processo di incentivo. Sì, c'è un sovraccarico. Tuttavia, man mano che l'IA si sposta verso gli esecutori, le millisecondi non sono significativi rispetto all'auditabilità. Il futuro non sarà afferrato dal modello che suonerà il più intelligente. Sarà parte del sistema, che sarà in grado di dimostrare come è giunto alla sua conclusione. E questo è il livello che deve ancora essere sottovalutato dalla maggior parte delle persone. $MIRA #Mira @Mira - Trust Layer of AI {spot}(MIRAUSDT)
Disclaimer: Include opinioni di terze parti. Non è una consulenza finanziaria. Può includere contenuti sponsorizzati.Consulta i T&C.