中小企業診断士 過去問
令和6年度(2024年)
問185 (経営情報システム 問24)
問題文
生成AIに見られる現象の1つにハルシネーションがある。ハルシネーションに関する記述として、最も適切なものはどれか。
このページは閲覧用ページです。
履歴を残すには、 「新しく出題する(ここをクリック)」 をご利用ください。
問題
中小企業診断士試験 令和6年度(2024年) 問185(経営情報システム 問24) (訂正依頼・報告はこちら)
生成AIに見られる現象の1つにハルシネーションがある。ハルシネーションに関する記述として、最も適切なものはどれか。
- AIが生成したデータをAI自らが学習することで、言語モデルの精度が低下したり多様性が失われたりする現象のこと。
- 事実に基づかない情報や実際には存在しない情報をAIが生成する現象のこと。
- 人間がAIとの対話中に、そのAIが感情や意図を持っているかのように感じる現象のこと。
- 人間がAIを反復的に利用することで、特定の意見や思想が正しいと信じ込むようになる現象のこと。
- モデル訓練時の入力データの統計的分布と、テスト時/本番環境での入力データの統計的分布が、何らかの変化によってズレてくる現象のこと。
正解!素晴らしいです
残念...
この過去問の解説 (2件)
01
生成AIに見られる現象の1つである、ハルシネーションに関する問題です。
英語で、ハルシネーション(Hallucination)とは「幻覚」を意味します。そこから転じて、ユーザーの質問に対して生成AIが事実とは異なる情報をもとに回答を生成することをいいます。
AIが生成したデータをAI自らが学習することで、言語モデルの精度が低下したり多様性が失われたりすることはモデル崩壊現象の記述であるため不適切な選択肢です。
事実に基づかない情報や実際には存在しない情報をAIが生成する現象のことは、ハルシネーションに関する記述として最も適切であり正解の選択肢となります。
本選択肢は、ハルシネーションに関する記述ではないため不適切な選択肢です。
AIが感情や意図を持っているかのように人間が感じることを、不気味な谷現象といいます。
本選択肢は、ハルシネーションに関する記述ではないため不適切な選択肢です。
人間が特定の意見や思想が正しいと信じ込むようになることを、エコーチェンバー現象といいます。
また、自身が興味をもつ対象や好みに合うような情報だけがフィルタリングされて発信され、それ以外の情報が遮断されてしまう現象をフィルターバブルといいます。
モデル訓練時の入力データの統計的分布と、テスト時/本番環境での入力データの統計的分布が何らかの変化によってズレてくることはデータドリフト(Data drift)現象の記述であるため不適切な選択肢です。
【補足】
エコーチェンバーについては、2021年にアメリカで発生した連邦議会乱入事件や、日本においてもSNSを駆使して選挙結果に影響を及ぼす例が出てきており、中小企業診断士試験において出題される可能性があると考えます。
また、フィルターバブルは過去に出題履歴があり、過去問題でSNS関連の用語の復習は必須です。
参考になった数4
この解説の修正を提案する
02
生成AIが文章や画像を作るとき、本来ないはずのことを作り出してしまう場合があります。
このような現象は「ハルシネーション」と呼ばれ、AIの信頼性に関わる重要な問題です。
→ これは「ハルシネーション」ではなく、「モデルの退化(モデル崩壊 / model collapse)」や「再学習による精度劣化」と呼ばれる現象です。
生成AIが自分で作ったデータを繰り返し学習し続けると、似たような内容ばかりになって、情報の偏りや内容の劣化が起こります。
→ これが「ハルシネーション(hallucination)」と呼ばれる現象の説明です。
たとえば、AIに「歴史的に存在した人物について教えて」と質問したときに、実在しない人物の名前やエピソードをあたかも本当のように出力することがあります。
このように、でたらめな内容をもっともらしく出力してしまうのがハルシネーションの特徴です。
会話AIだけでなく、画像生成AIなどでも、現実に存在しない建物や風景を自然に作り出してしまうことがあります。
→ これは「擬人化(anthropomorphism)」という人間側の心理的反応です。
たとえば、AIの返答が優しく感じられたり、共感してくれたように思えると、AIに感情があるように思ってしまうことがあります。
これはAIの出力内容が事実と違うという問題ではなく、人間がAIに対して感じる印象や解釈の話なので、ハルシネーションとは別の現象です。
→ これは「フィルターバブル(filter bubble)」や「エコーチェンバー(echo chamber)」と呼ばれる現象に近いです。
特定の傾向の情報だけが繰り返し表示されると、人は他の考えを受け入れにくくなり、自分の考えが正しいと強く信じ込むようになります。
→ これは「データドリフト(data drift)」または「概念ドリフト(concept drift)」と呼ばれます。
AIが訓練されたときと違う種類のデータが本番で入力されると、性能が下がることがあります。
たとえば、天気予報モデルが夏のデータばかりで訓練されていて、冬に使うとうまく予測できないような場合です。
参考になった数3
この解説の修正を提案する
前の問題(問184)へ
令和6年度(2024年) 問題一覧
次の問題(問186)へ