概要
https://martinalderson.com/posts/are-openai-and-anthropic-really-losing-money-on-inference/
詳細内容
## Are OpenAI and Anthropic Really Losing Money on Inference?
https://martinalderson.com/posts/are-openai-and-anthropic-really-losing-money-on-inference/
AI推論のコストを分解すると、入力処理と出力生成の間に千倍ものコスト差があることが明らかになり、主要なAI企業は持続不可能な損失を被っているという主張に反して、高い収益性を上げていると論じる。
**Content Type**: AI Hype
**Scores**: Signal:4/5 | Depth:4/5 | Unique:5/5 | Practical:4/5 | Anti-Hype:5/5
**Main Journal**: 91/100 | **Annex Potential**: 93/100 | **Overall**: 88/100
**Topics**: [[LLMコスト分析, AI推論効率, GPU経済学, MoEモデル, AIアプリケーション開発]]
「AI推論は資金を食い潰す」という一般的な認識に対し、本記事は、主要なAI企業が実際には高い収益を上げていると指摘します。著者はH100 GPUとMoEモデル(DeepSeek R1をベース)のコスト分析に基づき、「ナプキン計算」による逆算で、推論コストの劇的な非対称性を明らかにします。
その核心は、入力トークンの処理(プリフィルフェーズ)が、出力トークンの生成(デコードフェーズ)に比べて約1000倍も安価であるという点です。具体的な数値として、入力100万トークンあたり約0.003ドル、出力100万トークンあたり約3ドルのコスト差があると試算されています。これは、入力はHBM帯域幅に依存し並列処理が可能である一方、出力は逐次的な生成のためCPU律速になりやすいためです。
このコスト構造は、ChatGPT Proのような一般ユーザー向けプランや、Claude Codeのような開発者向けツールの高い収益性を説明します。特にコードベース全体を読み込み、少ないコードスニペットを出力するコーディングアシスタントのような「入力ヘビー・出力ライト」なユースケースは、事実上「ほぼ無料」の計算リソースで動作し、OpenAIやAnthropicが80〜95%の粗利率を享受できる「金を生む機械」であることを示唆しています。
この分析は、AI活用における製品設計やビジネスモデル構築に大きな示唆を与えます。大量のコンテキストを消費し、比較的少ない出力を生成するアプリケーション(例:ドキュメント分析、研究ツール)は、このコスト効率の恩恵を大きく受けます。反対に、動画生成のように少ない入力から大量の出力を生み出すモデルは、コスト構造が厳しくなります。
著者は、「AIは持続不可能に高価である」というナラティブが、新規参入を妨げようとする既存企業の利益に資している可能性を警告し、過去のクラウドコンピューティングの高騰と同様の過ちを繰り返さないよう、AIの真の経済性を理解することの重要性を強調しています。