kisはもっと頻繁にあなたに嘘をつきますか?残念ながら、これはまだ標準です。
「嘘」という言葉は、実際にはここでは場違いです。なぜなら、これらの間違いは幻覚と呼ばれるからです。それでも、それは時々嘘のように感じます:私はChatGptに質問をして、最初は適切に聞こえる答えを得ます。事実チェックで、私は多くのことが架空のものであることに気づきました。
幸いなことに、それをより良くするKISがすでにいます。
困惑AIは幻覚を避けようとします
困惑AIとは何ですか?ChatGptとGeminiと同様に、Perplexity.aiに質問に答えて特定のタスクを実行できるチャットボットで話すことができます。しかし、当惑は研究のために特別に設計されています。
これは、この情報が見つかるWebサイトまたはソースへのリンクも取得することを意味します。 Chatgpt and Co.は現在、同様の機能を導入していますが、これまでのところ、私に最も困惑しています。
なぜ?私は今、困惑する可能性が非常に低いと確信しています。
このようないくつかの検索クエリから答えを受け取ったとき、それは私に明らかになりました。
LLMSの最初の文は絶対的な希少性ですそれは残念です。 AIが答えを見つけられない場合や答えが非常に複雑である場合、私の経験では、言及された幻覚に対してより頻繁に起こります。
簡単なもの利用可能な情報に基づいて、正確なステートメントを作成することはできません
、一部のモデルのレベルを新しいレベルに上げます。しかし、ChatGpt、Geminiや他の競合他社にとっては、ほとんどないようです。
また、相続は間違いを犯します
困惑を指す新しいブックマークを保存する前に、警告されています。
例:これらの単語を書く数時間前に、コントローラーとそのキーレイアウトを扱う記事を書きました。
それは、通常、コントローラーの右側にあるキーに関するものでした:Kreuz、Kreis、A、Bなど。困惑はコントロールクロスから絶えず語っていましたが、それはそれについてではありませんでした。
そして、それはとにかく間違いが明らかであった劇的でない例です。ただし、これは必ずしもそうではありません。
したがって、いつものように、KISからの事実は常にチェックする必要があります。
それにもかかわらず、私の意見では、困惑が質問に対する明確な答えがないときにも認めていることを知ってうれしいです。