🫡 @Mira_Network 新しいアプローチで打開策を見つけたい——AIに自分で決めさせるのではなく、AIの「上層」に立って、AIが言うことが本当に正しいかどうかを専門的に検証するシステムを構築する方が良い。現在、皆がAIがどれだけ強気かを語っているが、実際に実現可能なシナリオは非常に限られている。
結局のところ、AIの現在最大の問題は「信頼性がない」ということです——それは見た目には非常に論理的な内容を書くことができるが、一度詳しく見ると、しばしば偽の情報が混じっていることがわかります。この問題はチャットボットではまだ許容されますが、医療、法律、金融などの高リスクなシナリオに応用されると、まったく問題になります。
AIはなぜこうなるのか?核心的な理由の一つは、「正確性」と「安定性」の間で常に両立できないからです。出力をより安定させたい場合は、トレーニングデータをよりクリーンに収集する必要がありますが、その結果、バイアスが持ち込まれやすくなります。逆に、より現実世界に近づけ、より包括的にカバーしたい場合は、多くの対立する情報を入れる必要があり、モデルは逆に「信頼できない発言」をするようになり、つまり幻覚を起こしやすくなります。
この方法は、AIに「事実確認者」を装着するようなものです。AIが最初にコンテンツを出力し、Miraがその内容をいくつかの小さな判断に分解し、複数の独立
原文表示