概要
LLMが提供する「要約された回答」は、従来のウェブ検索のような「自ら情報を探索し統合するプロセス」を省略させるため、結果として学習内容の理解を浅くすることを実験的に明らかにしました。
詳細内容
この研究は、PNAS Nexusに掲載されたもので、ChatGPTのような大規模言語モデル(LLM)とGoogleのような従来のウェブ検索が、ユーザーの「学習の深さ」にどのような違いをもたらすかを実験によって調査しました。
### 主な発見
1. **知識の希薄化**: LLMから得られる情報の核となる事実がウェブ検索と同じであっても、LLMを利用したユーザーはウェブ検索者に比べて知識が浅くなるリスクがあります。
2. **プロセスの喪失**: LLMは膨大な情報をあらかじめ要約して提示するため、ユーザーが複数のソースから情報を能動的に発見・統合するプロセス(シンセシス)が阻害されます。
3. **アウトプットへの影響**: LLMで学んだユーザーは、そのトピックについてアドバイスを作成する際、ウェブ検索者よりも内容が希薄で独創性に欠け、投資意欲も低くなる傾向が見られました。
### 結論
利便性の高いLLMによる回答は、情報の「受動的な消費」を促進し、深い理解に不可欠な「能動的な認知努力」を減少させるため、教育や専門的なリサーチの場では注意が必要であると示唆しています。