概要
https://www.eff.org/deeplinks/2025/12/ai-police-reports-year-review
詳細内容
## AI警察報告書の2025年回顧:不透明な自動作成ツールと広がる規制
https://www.eff.org/deeplinks/2025/12/ai-police-reports-year-review
**Original Title**: AI Police Reports: Year In Review
警察業務におけるAI報告書作成ツールの急速な普及と、それに伴う透明性の欠如、および法的規制による反撃の動きを総括する。
**Content Type**: 📊 Industry Report
**Language**: en
**Scores**: Signal:5/5 | Depth:3/5 | Unique:4/5 | Practical:3/5 | Anti-Hype:5/5
**Main Journal**: 100/100 | **Annex Potential**: 100/100 | **Overall**: 80/100
**Topics**: [[AI Police Reports, Data Provenance, Algorithmic Transparency, Axon Draft One, Legal Tech Regulation]]
2024年から2025年にかけて、米国の警察機関ではAIによる報告書作成ツールの導入が劇的に進んだ。電子フロンティア財団(EFF)は、この動向を振り返り、技術的な不透明性と法的規制の最前線を報告している。
中心的なトピックは、ボディーカメラの最大手Axon社が提供する「Draft One」である。このツールは、カメラの音声を解析して報告書のドラフトを自動生成する。しかし、著者はこのツールの設計思想に重大な懸念を表明している。Draft Oneは「設計上(by design)」、AIが生成した最初のドラフトを保存せず、警察官が編集を終えてシステムにエクスポートした時点で元の記録を消去する仕様になっている。Axon社の製品マネージャーは、これが「開示の手間(disclosure headaches)」を避けるための意図的な仕様であると明言した。この設計は、法廷において警察官の証言と報告書に矛盾が生じた際、不都合な箇所を「AIのせい」にする余地を与え、警察の責任追及を困難にする。
このような不透明な運用に対し、2025年は司法と立法の両面で強力な反撃が始まった。ワシントン州キング郡の検察当局は、信頼性の懸念からAI生成の報告書を一切受け付けない方針を決定した。また、州レベルの法規制も進展している。ユタ州のSB 180はAI使用の免責事項の明記と正確性の認定を義務付けた。さらに、カリフォルニア州のSB 524はより踏み込み、AI使用の開示だけでなく、ベンダーによるデータ共有の禁止、そして「最初のドラフトの保存」を義務付けた。これにより、AIが何を書き、人間がどう修正したかの監査トレースが確保されることになる。
エンジニアリングの観点から重要なのは、システムの「設計上の決定(Design Decision)」が、いかに社会的な透明性や説明責任を左右するかという点である。Axon社の事例は、ユーザー(警察)の利便性やリスク回避を優先した結果、公共の利益である透明性を意図的に損なう設計がなされたことを示している。高リスクなAIアプリケーションを開発する際、データセットの系統(Lineage)や監査ログの保持が、単なる機能要件ではなく、法的・倫理的な「一線」を画す要素であることを本記事は浮き彫りにしている。2026年は、カリフォルニア州のような「設計レベルでの透明性」を求める規制が他州や他分野にも波及することが予想される。