AI時代のフェイク前半では「意図した(悪意ある)フェイク」のことを書きましたが、
今回は「意図しない(悪意のない)フェイク」について書きたいと思います。
「ハルシネーション」
ChatGPTやClaude、Geminiなどの対話型のAIをLLM「Large Language Model(大規模言語モデル)」と言いますが、LLMではAIが事実に基づかない回答をすることが多くあります。
これをハルシネーションと言い、「事実に基づかない情報をあたかも本物のように生成してしまう現象」です。これは、AIが不完全な学習データや文脈の誤解により、存在しない情報をもっともらしく提示してしまうことから起こります。
AIの出した答えをうのみにすると、意図せずフェイク情報を流してしまうことになり、注意が必要です。
2025年の大学入試共通テストをいくつかのAIに解かせてみたところ、最も優秀なAIは90点平均を超えるようになりました。
あってはならない事ですが、カンニングに利用するのであれば、これで成功と言えるでしょう。
しかしこの回答を試験の回答速報として広めると、90%くらいははあっているけど、どこかの問題が10%くらい間違っている回答速報ということになります。
ですので、どの問題があっていてどの問題が間違っているかを検証し、回答を修正する能力が必要となります。
このようにAIが間違った回答をすることを前提にしないと、意図せずフェイクを流布してしまうことになります。
AIで多くの事が便利になりますが、どんな利用にリスクがあるのか?を理解することが必要です。
また回答に対して検証・修正できる能力がなければ本当の意味でのAI活用は難しいのかもしれません。

もっと深い続きのお話は、自考館の講義にて
