掲載済み (2025-11-29号)
#162 594文字 • 3分

## LLM拡張機能の苦い教訓

原題: The Bitter Lesson of LLM Extensions

英語

掲載情報

概要

https://www.sawyerhood.com/blog/llm-extension

詳細内容

## LLM拡張機能の苦い教訓 https://www.sawyerhood.com/blog/llm-extension **Original Title**: The Bitter Lesson of LLM Extensions LLMの拡張メカニズムの進化を辿り、モデルに汎用的な計算能力を与えることこそが、特殊なツールに頼るよりも効果的な戦略であると著者は主張する。 **Content Type**: ⚙️ Tools **Language**: en **Scores**: Signal:4/5 | Depth:4/5 | Unique:4/5 | Practical:4/5 | Anti-Hype:4/5 **Main Journal**: 80/100 | **Annex Potential**: 80/100 | **Overall**: 80/100 **Topics**: [[LLM拡張メカニズム, エージェントベース開発, コード生成AIツール, コンテキスト管理, 開発者ワークフロー]] 本記事は、過去3年間におけるLLM拡張機能の進化を詳細に振り返り、エンドユーザーがAIシステムをカスタマイズするためのメカニズムがどのように変化してきたかを解説します。 当初、OpenAIが導入したChatGPTプラグイン(2023年3月)は、LLMにOpenAPI仕様を渡し、RESTエンドポイントを呼び出させるという野心的な構想でした。しかし、当時のモデルは複雑なAPI仕様を扱うには未熟で、コンテキストの過負荷や幻覚に悩まされました。その後、ユーザー定義のプロンプトをチャットに付加するシンプルなカスタム指示(2023年7月)が登場し、繰り返し発生するコンテキスト設定の問題を解決しました。 2023年11月には、指示とツールをパッケージ化したCustom GPTsが登場し、プロンプトエンジニアリングを「製品化」する試みが行われました。ChatGPTのメモリ機能(2024年2月)は、会話履歴から情報を自動的に挿入する「自己記述型システムプロンプト」として、ユーザー介入なしに長期的な状態を維持するエージェントの始まりを示しました。 開発者体験において画期的だったのはCursor Rules(2024年4月)で、カスタム指示をリポジトリ内の`.cursorrules`ファイルに格納することで、コードベースと一体化した拡張性を提供しました。 2024年後半になると、モデルの能力向上に伴い、AnthropicのModel Context Protocol(MCP、2024年11月)のような、より信頼性の高いツール連携ソリューションが登場しました。MCPはエージェントに実際の機能を提供する強力なプロトコルでしたが、その複雑さゆえにエンドユーザーにとって高い摩擦を伴いました。 しかし、2025年2月に登場したClaude Codeは、`CLAUDE.md`によるリポジトリレベルの指示、MCP、スラッシュコマンド、フック、サブエージェントなど、あらゆる拡張メカニズムを統合しました。そして、注目すべきはAgent Skills(2025年10月)の導入です。これはChatGPTプラグインの再来とも言えるもので、MCPのような複雑なプロトコルではなく、マークダウンファイルとスクリプトのフォルダとして提供されます。エージェントは必要なスキルのみを読み込むため、MCPの課題であったコンテキストの肥大化を解消します。 著者は、この進化の「苦い教訓」として、特殊なツールを全て用意するよりも、エージェントに汎用的なコンピューティングアクセス(「コンピューター」)と自然言語による指示を与え、エージェント自身がタスクを達成するための「つなぎの作業」を行うことを信頼する戦略が、最終的に勝利すると仮説を立てています。将来的に、より多くのLLMアプリケーションが、ユーザーからは見えない形で「コンピューター」と結びつき、自然言語による拡張が主流になるだろうと予測しています。