AIはより賢くなる必要はない、検証可能である必要があるということに気づいた瞬間
長い間、私は人工知能の未来はより大きなモデル、より深いデータセット、そしてより良いトレーニング方法によって定義されると信じていました。他の多くの人と同様に、私は知性自体がボトルネックだと考えていました。
私は間違っていました。
Mira Networkのようなシステムの研究を深めるにつれて、知性が本当の問題ではないことがますます明確になりました。
信頼とは。
現代のAIシステムは、弱いために失敗するのではありません。彼らは、私たちが責任なしに彼らを信じざるを得ないから失敗します。出力は自信に満ちていて、一貫しており、説得力がありますが、それでも誤りである可能性があります。これはエンジニアリングの欠陥ではありません。これは確率システムの構造的な制限です。