掲載済み (2026-02-28号)
#137 164文字 • 1分

Anthropic、AI安全基準を大幅緩和:ペンタゴンとの対立と競争激化を背景に

原題: Anthropic ditches its core safety promise in the middle of an AI red line fight with the Pentagon

日本語

掲載情報

概要

Anthropicは、競争力の維持とペンタゴンからの圧力に対応するため、モデル開発を一時停止する厳格な安全指針(RSP)を撤廃し、柔軟な枠組みへと移行した。

詳細内容

AIの安全性を最優先に掲げて設立されたAnthropicが、その根幹である「責任あるスケーリング・ポリシー(RSP)」を大幅に緩和した。これまで同社は、モデルのリスクが制御不能になった場合に開発を一時停止するハードな制約を設けていたが、新方針「Frontier Safety Roadmap」ではこれを削除。背景には、競合他社が開発を加速させる中での「一方的な制限は逆に世界を危険にする」という判断と、現在の脱規制的な政治環境がある。特にペンタゴンからは、安全基準を撤回しなければ2億ドルの契約を打ち切り、ブラックリストに掲載するという最後通告(ウルティマタム)を受けていた。同社はAI兵器や監視への利用には慎重な姿勢を維持しつつも、拘束力のあるルールから「透明性と自己採点」を重視する方針へとシフトしており、理想と現実のパワーポリティクスの間で揺れている。