Po przeczytaniu białej księgi Miri zacząłem myśleć o tym, jak potężna jest sztuczna inteligencja, ale także jak krucha jest nadal. Często rozmawiamy o modelach językowych i o tym, jak dobrze potrafią mówić, być kreatywne i pracować szybko. Ale jeśli spojrzymy bliżej, możemy zobaczyć, że systemy AI mają ograniczenie: opierają się na prawdopodobieństwie. Nie "wiedzą" naprawdę rzeczy tak jak ludzie. Po prostu dokonują prognoz. Prognozy, niezależnie od tego, jak dobre są, mogą być błędne. Czasami ten błąd objawia się jako coś, co nie jest prawdziwe. Czasami objawia się jako stronniczość. Bez względu na to, jak duży lub dobrze wytrenowany jest pojedynczy model, ten problem nigdy naprawdę nie znika.
To, co mi się podobało w podejściu Miras, to to, że uważają, że niezawodność może nie pochodzić z budowania jednego modelu. Zamiast tego może pochodzić z ludzi, którzy w sposób zorganizowany się nie zgadzają i dochodzą do konsensusu.
Od wyników do weryfikowalnych roszczeń
Jednym z interesujących pomysłów jest to, jak zmieniają sposób, w jaki rzeczy są robione. Prosząc wiele modeli o spojrzenie na cały akapit lub złożony wynik jednocześnie, sieć dzieli to na małe weryfikowalne roszczenia.
To jest ważne.
Jeśli poprosisz modele o weryfikację długiego fragmentu tekstu, każdy może go zrozumieć inaczej. Jeden może spojrzeć na słowa, inny na kontekst, a jeszcze inny na ukryte założenia. Mira zapewnia, że wszyscy patrzą na to samo w ten sam sposób. Każdy weryfikator patrzy na to samo roszczenie w tej samej strukturze. To redukuje zamieszanie. Sprawia, że ma to sens, gdy wszyscy się zgadzają.
Moim zdaniem to jest zmiana: uczynienie rzeczy niezawodnymi poprzez ich standaryzację przed sprawdzeniem.
Zachęty ekonomiczne jako zabezpieczenie
Inną rzeczą, która ma dla mnie sens, jest sposób, w jaki używają mieszanki Proof-of-Work i Proof-of-Stake.
Tradycyjne blockchainy nagradzają ludzi za używanie dużej mocy obliczeniowej. Mira jednak wymaga od ludzi używania AI do weryfikacji rzeczy i muszą oni postawić na szali jakąś wartość. Ponieważ zadania weryfikacyjne są zorganizowane, ktoś mógłby po prostu. Mieć szczęście w krótkim okresie.. Jeśli węzeł konsekwentnie nie zgadza się z wszystkimi innymi lub działa irracjonalnie, zostaje ukarany.
To tworzy coś w rodzaju finansowego zachęty do mówienia prawdy.
System nie polega na zaufaniu autorytetowi. Opiera się na ludziach działających w swoim własnym interesie, ponieważ mają coś do stracenia. Dla mnie to jest różnica. Zmienia to walidację AI z zaufania do instytucji na zaufanie do systemu.
Różnorodność jako cecha, a nie błąd
Inną ważną rzeczą jest to, że Mira pozwala na różne modele. Kiedy jedna osoba wybiera modele, może to być stronnicze.
Zdecentralizowana struktura Miras pozwala ludziom uruchamiać modele z różnym treningiem i perspektywami. Ta różnorodność nie jest problemem. To jest to, co równoważy stronniczość. Kiedy modele się nie zgadzają, pomaga to filtrować błędy. Kiedy się zgadzają, zwiększa to pewność.
To jest inteligencja, która jest stosowana w inteligencji maszynowej.
Prywatność przez projektowanie
Podoba mi się też sposób, w jaki zajmują się prywatnością. Treść jest podzielona na kawałki i rozłożona na wiele węzłów. Żaden pojedynczy człowiek nie widzi tej rzeczy. Odpowiedzi weryfikacyjne są utrzymywane w prywatności, dopóki wszyscy się nie zgodzą.
W świecie, w którym ludzie coraz bardziej obawiają się AI i wycieków danych, to podejście do prywatności wydaje się być starannie przemyślane.
Poza weryfikacją: w kierunku zweryfikowanej generacji
To, co uważam za ambitny cel, to długoterminowa wizja. Weryfikacja to nie tylko coś, co robi się po fakcie. Celem jest wbudowanie tego w generację AI samą w sobie. Model podstawowy, w którym sprawdzanie błędów jest wbudowane, a nie coś, co robi się później.
Jeśli mogą to zrobić, wyeliminowałoby to kompromis między prędkością a dokładnością. Generując coś, a następnie sprawdzając to, wynik byłby poprawny od samego początku.
To zmieniłoby sposób, w jaki AI jest używane w obszarach takich jak opieka zdrowotna, prawo i finanse. Pozwoliłoby to systemom działać bez nadzoru ludzkiego, ale nadal być odpowiedzialnymi.
Ostateczne myśli
Dla mnie największym wnioskiem jest to, że samo powiększanie modeli nie sprawi, że AI będzie bardziej niezawodne. Wydaje się, że istnieje limit, jak niezawodny może być pojedynczy model. Aby przekroczyć ten limit, musimy wykorzystać zachęty i zdecentralizować.
Mira postrzega niezawodność AI jako problem z infrastrukturą, a nie tylko z modelem.
A jeśli AI ma stać się czymś więcej niż tylko pomocnym narzędziem, ale systemem, który może działać na własnej infrastrukturze, jak to może nie być opcjonalne. Może to być konieczne.
#Mira @Mira - Trust Layer of AI $MIRA

