掲載済み (2025-09-06号)
#037 519文字 • 3分

## Anthropic、一般向け「Claude」のAIトレーニングへの個人データ利用をオプトアウト方式に変更

掲載情報

2025年9月6日土曜日号 アネックス掲載

概要

https://www.itmedia.co.jp/aiplus/articles/2508/29/news078.html

詳細内容

## Anthropic、一般向け「Claude」のAIトレーニングへの個人データ利用をオプトアウト方式に変更 https://www.itmedia.co.jp/aiplus/articles/2508/29/news078.html Anthropic、一般向けClaudeのAIトレーニングにおける個人データ利用方針をオプトインからオプトアウト方式へと転換し、ユーザーのコーディングセッションを含むデータ利用をデフォルト設定に変更した。 **Content Type**: News & Announcements **Scores**: Signal:5/5 | Depth:2/5 | Unique:3/5 | Practical:4/5 | Anti-Hype:3/5 **Main Journal**: 98/100 | **Annex Potential**: 93/100 | **Overall**: 68/100 **Topics**: [[データプライバシー, AIモデルトレーニング, 利用規約変更, Claude Code, オプトアウト方式]] Anthropicが、一般消費者向けClaude製品(Free、Pro、Max、およびClaude Code)のプライバシーポリシーを大幅に変更しました。これまでユーザーのチャットやコーディングセッションをAIモデルのトレーニングに利用する際は明示的な同意(オプトイン)が必要でしたが、2025年9月28日以降は、ユーザーが明示的に拒否しない限り利用される「オプトアウト方式」がデフォルト設定となります。この変更は、Webアプリケーションエンジニアにとって、開発環境におけるデータプライバシーと知的財産保護の観点から極めて重要な意味を持ちます。 特にClaude Codeを利用しているエンジニアは、自身のコーディングセッション履歴や生成したコードスニペットが、AnthropicのAIモデルの将来的な改善に活用されることを意識する必要があります。これにより、企業の機密情報や個人の独自開発技術が、意図せずモデルに組み込まれてしまうリスクが潜在的に高まります。あなたのプロダクト開発に深く関わるAIアシスタントのデータ利用方針が、ユーザーの積極的な選択を求めるものから、デフォルトでの同意へと転換したことは、開発者としての責任とデータガバナンスのあり方を再考させるものです。 Anthropicは、この変更が「より高性能で安全なAIモデルを提供するため」と説明しており、AIの安全性向上や有害コンテンツ検出システムの精度向上を理由に挙げています。モデル開発の長期サイクルや一貫性確保のため、トレーニングに利用される場合のデータ保持期間が最長5年間に延長される点も注目すべきです。しかし、この利点と引き換えに、個々の開発者が自身のデータの管理にこれまで以上の注意を払う必要が生じます。 したがって、もしあなたがClaudeの消費者向け製品を日々の開発ワークフローで活用しているのであれば、この変更を軽視せず、速やかにプライバシー設定を確認し、自社のセキュリティポリシーや知的財産保護の方針に沿って「オプトアウト」するかどうかを決定すべきです。この規約変更は、単なる事務的な通知ではなく、あなたのコード資産と開発環境の安全に直結する具体的なアクションを求めるものです。