掲載済み (2025-11-29号)
#093 765文字 • 4分

## GitHubのAIエージェントを可能な限り安全にするためのエージェント型セキュリティ原則

原題: How GitHub’s agentic security principles make our AI agents as secure as possible

英語

掲載情報

概要

https://github.blog/ai-and-ml/github-copilot/how-githubs-agentic-security-principles-make-our-ai-agents-as-secure-as-possible/

詳細内容

## GitHubのAIエージェントを可能な限り安全にするためのエージェント型セキュリティ原則 https://github.blog/ai-and-ml/github-copilot/how-githubs-agentic-security-principles-make-our-ai-agents-as-secure-as-possible/ **Original Title**: How GitHub’s agentic security principles make our AI agents as secure as possible GitHubは、データ漏洩やプロンプトインジェクションといったAIエージェント固有のセキュリティリスクに対処するため、Copilot開発で培った独自のエージェント型セキュリティ原則を公開し、開発者が安全なAIエージェントを構築するための指針を示しています。 **Content Type**: ⚙️ Tools **Language**: en **Scores**: Signal:5/5 | Depth:4/5 | Unique:3/5 | Practical:4/5 | Anti-Hype:4/5 **Main Journal**: 79/100 | **Annex Potential**: 76/100 | **Overall**: 80/100 **Topics**: [[AIエージェントのセキュリティ, GitHub Copilot, DevSecOps, プロンプトインジェクション対策, データ漏洩防止]] GitHubは、AIエージェントが開発ワークフローを豊かにする一方で、リスクも増大することを認識し、自律型AIエージェントを可能な限り安全に運用するためのセキュリティ原則を公開しました。これは、エージェントの解釈可能性を最大化し、自律性を最小限に抑え、異常な動作を減らすことを目指しています。これらの原則は、特にGitHub Copilotなどの製品開発で培われたものです。 主なセキュリティ上の懸念事項として、著者は以下の3点を挙げています。第一に、**データ流出**です。インターネットアクセスを持つエージェントが、意図しない宛先に機密データを漏洩させる可能性があります。第二に、エージェントが行ったアクションにおける**なりすましと適切なアクションの帰属**です。エージェントが誰の指示で、どのような権限で行動したのか不明確な場合、インシデント発生時の説明責任や追跡が困難になります。第三に、**プロンプトインジェクション**です。悪意のあるユーザーが隠れた指示を埋め込み、エージェントを誤った行動に誘導する可能性があります。 これらのリスクを軽減するため、GitHubは以下の6つのルールを定めています。 1. **すべてのコンテキストの可視化**: 悪意のあるユーザーがUnicodeやHTMLタグで隠した指示をエージェントに渡すことを防ぐため、エージェントが参照するファイルからのコンテキストは完全に可視化され、不可視情報は削除されます。 2. **エージェントのファイアウォール設定**: エージェントが外部リソースへ無制限にアクセスすることを制限し、機密情報の流出や外部からのプロンプトインジェクションを防ぐため、ネットワークアクセスを制限するファイアウォールを適用します。 3. **機密情報へのアクセス制限**: エージェントが機能するために必要不可欠な情報のみを与え、CIシークレットや現在のリポジトリ外のファイルなど、機密データへのアクセスは最初から許可しません。 4. **不可逆的な状態変更の防止**: AIは間違いを犯す可能性があるため、エージェントが直接デフォルトブランチにコミットするような不可逆的な変更を行うことを防ぎます。Copilotはプルリクエストの作成のみにとどめ、人間によるレビューと承認を必須とします。 5. **開始ユーザーとエージェントへの一貫したアクションの帰属**: エージェントによるすべてのアクションは、開始ユーザーとエージェントの両方に明確に帰属させ、責任の連鎖を確保します。Copilotが作成したプルリクエストは、開始ユーザーとCopilotによって共同でコミットされます。 6. **承認済みユーザーからのコンテキストのみ収集**: エージェントは、対話を開始したユーザーによって付与された権限とコンテキストの下でのみ動作します。例えば、Copilotがイシューに割り当てられるのは、基盤となるリポジトリへの書き込み権限を持つユーザーのみに限定されます。 これらの設計原則は、エンドユーザーには見えない直感的なものですが、GitHubはこれらの決定が製品の信頼性を高める上で重要だと説明しています。開発者は、自身のAIエージェントを構築する際に、これらのセキュリティ原則を応用することで、より安全なシステムを構築できると著者は提唱しています。