次号掲載予定 (2026-03-28号)
#009 231文字 • 2分

自作MCP×AI Agentの回答精度をClaude Codeで評価させてみた[LLM-as-a-Judge]

日本語

概要

自作MCPサーバーを介したAIエージェントの回答精度を、Claude Codeのカスタムスキル(LLM-as-a-Judge)を用いて効率的に自動評価する手法の検証記録。

詳細内容

この記事では、自作のMCP(Model Context Protocol)サーバーと連携するAIエージェントの回答精度を評価するために、Claude Codeの「カスタムスキル」機能を活用する手法を紹介しています。著者は社内図書館の書籍管理システムを題材に、FastMCPとPostgreSQLで構築したツール群の性能を検証しました。 評価フローは、まずAIエージェントに質問セットを与えて回答を生成させ、その結果をClaude Codeに読み込ませて「LLM-as-a-Judge」として判定させる形式です。`.claude/skills`内に定義した独自のスキル(/checkAnswer)により、数値の一致や部分的な正誤をOK/PARTIAL/NGといったラベルで分類し、Markdown形式のレポートを自動生成します。 検証の結果、20問中13問が正解(正答率65%)となり、失敗したケースの分析から「MCPツール側の取得件数制限」などの具体的な設計課題が浮き彫りになりました。この手法は、評価コードを自作する手間を省き、Claude Codeの定額プラン内でコストを抑えつつ高品質な評価が実行できるという大きなメリットがあります。一方で、対話型実行が前提のためCIへの組み込みには課題があるものの、開発中の迅速なフィードバックループ構築に非常に有効な手段であることが示されています。