概要
https://www.theguardian.com/technology/2025/nov/22/ai-workers-tell-family-stay-away
詳細内容
## AI開発者たちが家族や友人にAIを避けるよう勧める理由
https://www.theguardian.com/technology/2025/nov/22/ai-workers-tell-family-stay-away
**Original Title**: Meet the AI workers who tell their friends and family to stay away from AI
AI開発に携わる人々自身がその製品の信頼性に深い不信感を抱き、家族や友人に対してAI利用を避けるよう警告しているという衝撃的な実態を、本記事は詳細に報じる。
**Content Type**: AI Hype
**Language**: en
**Scores**: Signal:4/5 | Depth:2/5 | Unique:5/5 | Practical:4/5 | Anti-Hype:5/5
**Main Journal**: 86/100 | **Annex Potential**: 89/100 | **Overall**: 80/100
**Topics**: [[AIの信頼性, AI倫理, AIワーカー, 開発プロセス, AIの誤情報]]
この記事は、Amazon Mechanical TurkやGoogleなどの大手テック企業でAIモデルの評価やモデレーションに携わる多くのAIワーカーが、自らが作り出すAI製品に強い不信感を抱き、家族や友人にその使用を控えるよう忠告している実態を明らかにしている。彼らが不信感を抱く主な理由は、企業の「迅速な納期」を優先する姿勢が「品質」を犠牲にしている点にある。
あるワーカーは、差別的なツイートを誤って見過ごしかけた経験からAIの誤認識の規模に衝撃を受け、以来、生成AI製品を個人的に使用せず、娘にもChatGPTのようなツールを禁じている。また、GoogleのAIレビュアーは、医療分野のAI生成回答を医学的知識のない同僚が評価している状況に懸念を表明し、自身の10歳の娘にはチャットボットの使用を禁じた。「批判的思考スキルをまず学ばなければ、AIの出力が正しいか判断できない」と彼女は言う。
専門家たちは、AI開発者自身がAIを最も信用しないという状況は、「検証よりも出荷と規模拡大を優先するインセンティブがある」ことを示していると指摘する。AIワーカーたちは、曖昧な指示、不十分なトレーニング、非現実的な時間制限の中でタスクをこなすことを求められており、「入力データがひどい状態でモデルが正しく学習できるはずがない」という「garbage in, garbage out(ゴミを入れればゴミが出る)」の原則を痛感している。
NewsGuardの調査では、2024年8月から2025年8月の間に、主要な生成AIモデルの無回答率が31%から0%に減少した一方で、誤報を繰り返す可能性が18%から35%へとほぼ倍増していることが判明した。これは、AIが「回答できない場合に回答しない」能力を失い、自信満々に誤った情報を提示する傾向が強まっていることを意味する。
ウェブアプリケーションエンジニアにとって、この記事が示す示唆は極めて重要だ。AIは魔法ではなく、その裏には多くの人間の労働と妥協が存在する。「焦ったタイムライン、絶え間ない妥協」の結果、AIは「未来的なもの」ではなく「脆いもの」として認識されるべきである。AIツールを導入する際、その出力の信頼性を盲信せず、常に批判的な視点を持つこと、そしてAIのデータソース、著作権侵害の可能性、ワーカーへの公正な報酬といった倫理的な問いを投げかける姿勢が不可欠となる。AIの品質は投入される情報に左右され、それが常に最善ではないという現実を理解し、AIへの過剰な期待を戒めるべきだと著者は強調する。