Wkrótce wkraczamy w erę, w której AI podejmuje decyzje, które naprawdę mają znaczenie, w opiece zdrowotnej, finansach, badaniach prawnych i nie tylko. Ale jest problem, o którym nikt nie chce rozmawiać: AI kłamie. Nie celowo, ale z pewnością siebie. Halucynacje, bias i sfałszowane dane są wbudowane w sposób, w jaki działają duże modele językowe. A w tej chwili nie ma standardowego systemu, który mógłby uchwycić te błędy, zanim spowodują prawdziwe szkody.
To jest luka, którą @mira_network został stworzony, aby wypełnić.
Główny problem z AI dzisiaj
Kiedy zadajesz AI pytanie, ufasz pojedynczemu modelowi, wytrenowanemu na niedoskonałych danych, skłonnemu do pewnego stwierdzania fałszywych informacji jako faktów. W przypadkach o niskim ryzyku jest to irytujące. W krytycznych przypadkach jest to niebezpieczne. Wyobraź sobie podsumowanie medyczne wygenerowane przez AI, zawierające halucynowaną dawkę leku, lub raport finansowy z sfałszowanymi liczbami. Konsekwencje są realne.