概要
OpenAIは米国防総省と機密環境でのAI展開に関する合意に達し、国内監視、自律兵器、重大な自動意思決定を禁止する「レッドライン」を設定しました。
詳細内容
OpenAIは、2026年2月付で米国防総省(DoW)と高度なAIシステムの機密環境における展開に関する契約を締結しました。この合意は、国家安全保障を支援しつつ、AIの誤用を防ぐための多層的な安全策を導入した点が特徴です。
**主な内容と安全基準:**
- **3つのレッドライン:** 「米国内の大量監視」「自律兵器システムの直接制御」「社会的信用スコア等の高リスクな自動意思決定」への技術使用を厳格に禁止しています。
- **技術的制約:** 展開はクラウド限定(エッジデバイス不可)とされ、OpenAI側が安全スタック(ガードレール)の制御権を保持します。これにより、モデルから安全機能を除去して使用されるリスクを回避します。
- **人間介在と検証:** 適格性を持つOpenAIのエンジニアが現場でサポートし、安全性の研究者がプロセスに関与します。また、自律システムへの使用については、既存の国防省指令3000.09に基づく厳格な検証が義務付けられています。
- **透明性と法遵守:** 憲法修正第4条やFISA等に基づき、NSAによる使用も現時点では除外されています。法律や政策が将来変更された場合でも、現在の安全基準を維持する契約条項が含まれています。
OpenAIは、他社(Anthropic等)の過去の合意よりも強力な保護策を有していると主張しており、民主主義国家の防衛を支援しながらも、AIのリスク管理を優先する姿勢を示しています。