某所でこれAIに聞いたら頓珍漢な回答されたんだろうなって質問あったから
コピペしてChatGPT/Gemini/Copilotに投げてみたら面白い事が分かった
ChatGPT/Geminiはユーザーの指定に忠実に従って本来の目的と異なる回答するのに対して
Copilotはユーザーの用語の誤用を見抜いて正しい回答をして来た

つまりAIでマトモな回答を得られない人は日本語の使い方や主語・目的詞・用語の誤用があって
AIはそれに引っ張られる形でハルシネーションを見せてくる事もあるのだなと思った