掲載済み (2026-03-07号)
#014 230文字 • 2分

AIエージェントを信頼するな:NanoClawが提唱する「不信」を前提としたセキュリティ設計

原題: Don't trust AI agents

英語

掲載情報

2026年3月7日土曜日号 メインジャーナル掲載

概要

AIエージェントを潜在的な脅威と見なし、アプリケーションレベルの制限ではなく、コンテナ分離や最小限のコードベースといったアーキテクチャによって被害を最小化する設計思想の解説。

詳細内容

AIエージェントの構築において、プロンプトインジェクションやサンドボックス脱出の可能性を常に考慮し、エージェントを「信頼できない、あるいは悪意のある存在」として扱うべきだと主張しています。既存の「OpenClaw」のようなプロジェクトがアプリケーションレベルのチェックに依存しているのに対し、NanoClawは以下の3つの柱でセキュリティを担保します。 1. **ハードな隔離**: エージェントごとに独立した一時的なDocker/macOSコンテナを立ち上げ、OSレベルでリソースを制限。エージェントが暴走してもホストや他のデータに影響を与えない設計です。 2. **エージェント間の分離**: パーソナル用とワーク用など、役割の異なるエージェント間で情報を共有せず、ファイルシステムやセッション履歴を完全に独立させます。 3. **監査可能な最小コード**: 肥大化したコードベースは脆弱性の隠れ蓑になるため、NanoClawはコアを数千行に抑え、新機能は「スキル」としてユーザーがレビューした上で追加する形式を採用しています。 「エージェントの振る舞いが正しいこと」に依存するセキュリティモデルは破綻していると説き、エージェントの外側に強固な壁を築くことの重要性を強調しています。