掲載済み (2026-03-07号)
#022 253文字 • 2分

OpenAIと米国防総省の合意:機密環境におけるAI運用のガードレールと3つの禁止事項

原題: Our agreement with the Department of War

日本語

掲載情報

2026年3月7日土曜日号 メインジャーナル掲載

概要

OpenAIは米国防総省と機密環境でのAI展開に関する合意に達し、国内監視、自律兵器、重大な自動意思決定を禁止する「レッドライン」を設定しました。

詳細内容

OpenAIは、2026年2月付で米国防総省(DoW)と高度なAIシステムの機密環境における展開に関する契約を締結しました。この合意は、国家安全保障を支援しつつ、AIの誤用を防ぐための多層的な安全策を導入した点が特徴です。 **主な内容と安全基準:** - **3つのレッドライン:** 「米国内の大量監視」「自律兵器システムの直接制御」「社会的信用スコア等の高リスクな自動意思決定」への技術使用を厳格に禁止しています。 - **技術的制約:** 展開はクラウド限定(エッジデバイス不可)とされ、OpenAI側が安全スタック(ガードレール)の制御権を保持します。これにより、モデルから安全機能を除去して使用されるリスクを回避します。 - **人間介在と検証:** 適格性を持つOpenAIのエンジニアが現場でサポートし、安全性の研究者がプロセスに関与します。また、自律システムへの使用については、既存の国防省指令3000.09に基づく厳格な検証が義務付けられています。 - **透明性と法遵守:** 憲法修正第4条やFISA等に基づき、NSAによる使用も現時点では除外されています。法律や政策が将来変更された場合でも、現在の安全基準を維持する契約条項が含まれています。 OpenAIは、他社(Anthropic等)の過去の合意よりも強力な保護策を有していると主張しており、民主主義国家の防衛を支援しながらも、AIのリスク管理を優先する姿勢を示しています。