次号掲載予定 (2026-03-28号)
#100 189文字 • 1分

AIによるイラン学校爆撃への責任転嫁と、真に危惧すべき「キルチェーン」の自動化

原題: AI got the blame for the Iran school bombing. The truth is far more worrying

英語

概要

2026年のイラン誤爆事件を切り口に、対話型AIへの批判が「意思決定の高速化」という軍事システムの本質的欠陥と人間の責任を隠蔽していると警鐘を鳴らす論考。

詳細内容

2026年2月、米軍がイランの小学校を爆撃し180名近い犠牲者を出した。世論はAnthropic社の「Claude」のような大規模言語モデル(LLM)の暴走を疑ったが、筆者はこれが本質を見誤った「AIサイコシス」であると指摘する。実際に標的選定を担ったのは、かつてGoogleが拒否しPalantirが構築した標的補足システム「Maven」であった。問題はAIの「幻覚」ではなく、軍が「キルチェーン(探知から破壊までの工程)」を極限まで短縮したことにある。1時間に1000件の標的を処理する超高速な運用体制では、データベースの更新漏れを修正する「熟議」や「摩擦」の時間が失われ、人間はシステムの推薦を盲目的に追認するだけの存在と化している。著者は、AIのカリスマ性が議論を技術的な安全性に矮小化させ、戦争を開始しシステムを設計した人間たちの政治的・倫理的責任を隠す「隠れ蓑」になっていると鋭く批判する。自動化された官僚機構は、もはや解釈や例外を許さない「曲がることのないソフトウェア」へと変貌しているのだ。