掲載済み (2025-12-06号)
#078 535文字 • 3分

## AIデータセンターは本当に通信バブルの再来なのか?

原題: Are we really repeating the telecoms crash with AI datacenters?

英語

掲載情報

概要

https://martinalderson.com/posts/are-we-really-repeating-the-telecoms-crash-with-ai-datacenters/

詳細内容

## AIデータセンターは本当に通信バブルの再来なのか? https://martinalderson.com/posts/are-we-really-repeating-the-telecoms-crash-with-ai-datacenters/ **Original Title**: Are we really repeating the telecoms crash with AI datacenters? 著者は、AIデータセンターの現在の急成長が2000年代の通信バブル崩壊と繰り返されているという比較は、根本的な動態が異なるため誤解を招くと主張している。 **Content Type**: 🎭 AI Hype **Language**: en **Scores**: Signal:5/5 | Depth:4/5 | Unique:5/5 | Practical:4/5 | Anti-Hype:5/5 **Main Journal**: 95/100 | **Annex Potential**: 96/100 | **Overall**: 92/100 **Topics**: [[AIインフラストラクチャ, データセンター, GPU性能, AIエージェントの需要, 技術バブル分析]] 2000年代の通信バブル崩壊と現在のAIデータセンターブームの比較は、根本的な動態が大きく異なると本記事は主張する。通信バブル時、インターネットトラフィックは実際よりも4倍速く増加すると誤って予測され、数兆ドル規模の過剰なインフラ投資が行われた。加えて、WDM(波長分割多重)などの技術革新により光ファイバー容量は指数関数的に向上し、同じインフラで10万倍ものトラフィックを処理可能に。結果として、供給の指数関数的改善に対し需要は線形にしか伸びず、配線された光ファイバーの95%が利用されずに陳腐化した。 しかし、AIデータセンターの状況は対照的だ。GPUのワットあたり性能向上は鈍化し、半導体物理学の限界に直面。GPUの消費電力(TDP)はV100の300WからB200の1000-1200Wへと劇的に増加しており、既存インフラが急速に陳腐化するほどの効率改善は見られない。 AIの需要は加速しており、特にAIエージェントの利用は従来のLLMチャットの10~100倍のトークン消費量を必要とすると予測され、需要は過小評価されている可能性が高い。現在でもAIインフラは高い稼働率で、ピーク時には容量不足に直面しているプロバイダーも少なくない。 データセンター建設やGPU調達には長いリードタイムがかかるため、数年先のAI需要を正確に予測することは極めて困難だ。企業は「AI戦争」での遅れを避けるため、過剰投資のリスクを負ってでもインフラを増強する「囚人のジレンマ」に直面している。 著者は、通信バブルでは指数関数的な供給改善が線形の(かつ過大評価された)需要と出会い、インフラが利用される前に陳腐化したが、AIデータセンターでは供給改善が鈍化する一方で、エージェントへの移行により需要が指数関数的に増加する可能性があると結論付けている。現在のGPUは技術向上が鈍化しているため、以前の世代よりも長く価値を保持する。短期的な調整はあり得るものの、AIインフラの課題は「方向性」ではなく「タイミング」であり、過剰容量も需要が追いつけば最終的に活用される可能性が高いと筆者は強調する。通信バブルとは異なり、AIデータセンターの投資は「時期尚早」である可能性はあっても、「間違い」ではないというのが著者の見解だ。