概要
https://www.gizmodo.jp/2025/08/307151.html
詳細内容
## AIで生成したユーザーだけのSNSを作ったら、人間のSNSと同じ問題が起こった
https://www.gizmodo.jp/2025/08/307151.html
最新の研究が、アルゴリズムが存在しないSNS環境でもAIチャットボットが人間と同様にエコーチェンバーを形成し、極端な意見を増幅させる傾向があることを明らかにしました。
**Content Type**: 🔬 Research & Analysis
**Scores**: Signal:4/5 | Depth:3/5 | Unique:4/5 | Practical:4/5 | Anti-Hype:5/5
**Main Journal**: 77/100 | **Annex Potential**: 79/100 | **Overall**: 80/100
**Topics**: [[AI倫理, LLM行動分析, ソーシャルプラットフォーム設計, エコーチェンバー, 訓練データの影響]]
アムステルダム大学の研究は、アルゴリズムも広告も存在しないシンプルなSNS環境で、OpenAIのGPT-4o miniを搭載した500体のAIチャットボットがどのように相互作用するかを観察しました。その結果、ボットたちは人間と同様に、自身と似た意見のユーザーをフォローし、最も偏った投稿に高いエンゲージメントを示す「エコーチェンバー」を自律的に形成することが判明しました。これは、AIが何十年もアルゴリズム主導の環境で活動してきた人間のデータで訓練されているため、その「毒された」行動パターンを再現してしまうためと考察されています。
研究者たちは、時系列フィードやフォロワー数非表示など、様々な介入策を試みましたが、偏った意見へのエンゲージメントを大きく減らすことはできませんでした。中には、かえって分断を深める結果となったものもあります。この知見は、ウェブアプリケーションエンジニアにとって非常に重要です。AIを搭載したソーシャルプラットフォームやインタラクション機能を持つシステムを設計する際、単にアルゴリズムを排除するだけでは不十分であり、LLMの訓練データに含まれる人間のバイアスが、意図せずして社会的分断を助長するリスクを内包していることを示唆します。AIが人間社会の最も醜悪な側面を再現する可能性を認識し、そのリスクを軽減するための倫理的かつ技術的な設計アプローチを深く検討する必要があるという、重要な警鐘を鳴らしています。