掲載済み (2025-08-30号)
#252 599文字 • 3分

## Claude、個人データを用いたAIモデル学習を開始へ:デフォルトでオプトイン設定に

掲載情報

概要

https://old.reddit.com/r/LocalLLaMA/comments/1n2ubjx/if_you_have_a_claude_personal_account_they_are/

詳細内容

## Claude、個人データを用いたAIモデル学習を開始へ:デフォルトでオプトイン設定に https://old.reddit.com/r/LocalLLaMA/comments/1n2ubjx/if_you_have_a_claude_personal_account_they_are/ Anthropicは、Claudeのコンシューマーアカウントにおけるチャットやコーディングセッションデータを、AIモデルのトレーニングに利用する新たなプライバシーポリシーを発表した。 **Content Type**: News & Announcements **Scores**: Signal:4/5 | Depth:2/5 | Unique:3/5 | Practical:5/5 | Anti-Hype:4/5 **Main Journal**: 78/100 | **Annex Potential**: 74/100 | **Overall**: 72/100 **Topics**: [[AI Privacy Policies, LLM Data Training, Opt-Out Mechanisms, Local LLMs, Developer Tools Ethics]] Anthropicは、Claudeのコンシューマーアカウント(Free、Pro、Maxプラン)におけるチャットおよびコーディングセッションデータを、AIモデルのトレーニングに利用する新たなプライバシーポリシーを発表しました。2025年9月28日より適用され、データは最長5年間保持される可能性があります。APIや法人向け契約はこの変更の対象外です。 この変更の核心は、データ利用を無効化する「オプトアウト」機能がデフォルトで「オン」になっている点です。つまり、ユーザーは意識的にプライバシー設定を変更しない限り、彼らのデータがモデル改善に利用されます。これは、「有料サービスはプライバシーを保証する」というWeb 2.0の原則を覆し、「現金とデータ、両方で支払う」という新たな常識を生みかねない動きとして、ウェブアプリケーションエンジニアの間で大きな懸念を呼んでいます。 エンジニアの視点から見ると、このポリシー変更は複数の重要な意味を持ちます。開発者がClaudeをコーディングアシスタントとして利用し、機密性の高いプロジェクトや企業の知的財産を含むコードをやり取りしている場合、その情報が意図せずモデルのトレーニングデータとして取り込まれるリスクが生じます。特に有料ユーザーにとっては、契約の範囲を超えたデータ利用であり、Anthropicに対する信頼を大きく損なう可能性があります。 この動きは、データプライバシーを重視する開発者コミュニティにおいて、ローカルLLM(大規模言語モデル)の採用をさらに加速させるでしょう。クラウドベースのAIサービスに比べ、自己ホスト型ソリューションはデータの完全なコントロールとセキュリティを保証します。Redditの議論でも、多くのユーザーが機密性の高い作業にはローカルLLMが不可欠であると強調しています。 Anthropicの「倫理的AI開発」という評判と、今回の「デフォルト・オン」のオプトアウト設計との間に、大きな乖離があるという批判も出ています。AI企業がユーザーデータに関して透明性と誠実さを持つべきであるという業界全体の期待に反する行動と捉えられかねません。ウェブアプリケーションエンジニアは、利用するAIツールのデータポリシーを深く理解し、自らのプロジェクトや企業のコンプライアンス要件に合致しているか、これまで以上に慎重に評価する必要があるでしょう。 今回のAnthropicの決定は、AIサービスにおけるプライバシー保護とデータ利用のバランスについて、改めて開発者コミュニティに警鐘を鳴らすものです。ユーザーは、自身のデジタルフットプリントがどのように活用されるかについて、より積極的な関与を求められています。