私は以前、AIが持つパラメータが多ければ多いほど賢くなると思っていましたが、最近では大きさが正しさを意味するわけではないことに気づきました。チャットボットに複雑な医学的説明やコードのスニペットを尋ねるたびに、私はギャンブルをしているような気分になります。それは自信に満ちた響きですが、しばしばパターンに基づいて推測しているだけです。ここで、私にとってミラが登場します。単一のモデルの言葉を鵜呑みにする代わりに、このネットワークは異なるAIモデルのグループ全体が同じ情報を見られるようにします。それは長い記事や文書を小さく、別々の主張に分解し、それらの主張が実際に真実であるかどうかを独立した検証者たちに投票させます。これは、 hallucinating しているかもしれない単独の人間の代わりに専門家の陪審団を持つようなものです。厳しい真実は、「単一のモデルが完全に正確であることは決してできない。なぜなら、それを創造的にするように訓練することは、嘘をつく傾向も生じさせるからです。」私たちは、データを追加し続けて最良の結果を期待するだけではいけないポイントに達しました。ミラを使うことで、これらのモデルが間違うことには実際の経済的コストがあるため、彼らは正直であることを奨励されています。私はようやく、健康や財務といった、本当に重要なことにこれらのツールを使えるような気がしてきました。毎文を常に疑うことなく、もう一つの超知的な神モデルを作ることではなく、異なる視点が互いの誤りを捉えるシステムを構築することに関するものです。これは、AIを使って実際に問題を解決したいから、ただのもっとらしい音のナンセンスを生成するためではありません。
$MIRA #Mira @Mira - Trust Layer of AI