$MIRA Mała rzecz wydarzyła się dzisiaj wcześniej, gdy używałem asystenta AI. Odpowiedź, którą podał, wyglądała na doskonale ustrukturyzowaną. Jasne rozumowanie, pewny ton, nawet statystyka, która sprawiała, że wyjaśnienie brzmiało autorytatywnie. Ale gdy sprawdziłem ten numer, po prostu nie pojawił się nigdzie w materiałach źródłowych. Ten moment przypomniał mi, dlaczego sieć Mira jest tak interesującym pomysłem...
Większość systemów AI dzisiaj generuje odpowiedzi na podstawie prawdopodobieństwa. Mogą brzmieć niezwykle przekonująco, nawet gdy części informacji są błędne. Mira podchodzi do tego problemu inaczej, wprowadzając to, co można opisać jako „warstwę weryfikacji dla wyjść AI.”
Zamiast akceptować odpowiedź modelu jako ostateczną, protokół dzieli tę odpowiedź na poszczególne twierdzenia. Te twierdzenia są następnie oceniane w zdecentralizowanej sieci modeli AI i walidatorów. Jeśli informacja przetrwa ten proces, staje się częścią zweryfikowanego wyjścia.
Ta zmiana zmienia rolę AI z „pewnej generacji” na „zweryfikowane informacje.”
Jeśli agenci AI mają być używani do badań, finansów lub zautomatyzowanych systemów decyzyjnych, niezawodność będzie miała znaczenie równie wielkie jak inteligencja. Podejście Mira sugeruje, że zaufanie do AI może pochodzić nie z większych modeli, ale z systemów, które mogą rzeczywiście weryfikować, co te modele produkują.