🚨 ChatGPTは27%の確率であなたに嘘をつき、あなたはそれに気づいていません。
弁護士は、完全に捏造されたAI生成の法的引用を信じてキャリアを失いました。裁判所に提出し、判事にバレてしまったのです。キャリア終了。
しかし、多くの人が知らないことがあります…
ジョンズ・ホプキンス大学の研究者は1,200のプロンプトをテストし、プロンプトの仕方がすべてを変えることを発見しました。
基本的なプロンプト: hallucination(幻覚)率27.3%
「正確であれ」といった一般的な指示:24.1%…ほとんど効果なし
では、解決策はこれです:
質問の前に「〜によると」を追加するだけです。
例:
「マグネシウムの健康効果は何ですか?」
→
「ピアレビューされた研究によると、マグネシウムの健康効果は何ですか?」
幻覚率は7.2%に下がります。たった一つの小さな変更で20ポイントの削減です。
出典の帰属方法も同じです…7.2%。
ポイントは簡単です。AIにその主張の出典を特定のものに帰属させると、簡単に捏造できなくなるのです。出典を見つけるか、「わかりません」と答えるだけです。
たった二つの言葉で、嘘を20%減らせます。
ほとんどの人は怠けてプロンプトを続けるでしょう。でも、あなたはそうしなくて済むのです。
原文表示