概要
Claude、ChatGPT、Geminiに高度な太陽系シミュレーターの作成を1回のプロンプトで依頼した結果、Claudeがビジュアル、物理挙動、操作性のすべてにおいて他を圧倒する成果を出した。
詳細内容
### 比較実験の概要
MakeUseOfのAmir Bohlooli氏が、Claude Sonnet 4.6、ChatGPT 5.4 Thinking、Gemini 3 Thinkingの3モデルに対し、ブラウザで動作する3D太陽系シミュレーターの作成を依頼しました。条件は「1回の出力のみ、修正なし」という厳しいものです。
### 各AIのパフォーマンス
- **Gemini**: 生成速度は最速でしたが、惑星のテクスチャが単色グラデーションで細部がなく、ズームアウトできないバグや惑星をクリックできないなど、インタラクションに課題が残りました。
- **ChatGPT**: 致命的な失敗をしました。3Dではなく2Dを選択した上、単位計算(AUとkm)のミスにより、すべての惑星が太陽の内部に重なって配置されるという、シミュレーションとして機能しないコードを出力しました。
- **Claude (勝者)**: 唯一「完成品」と呼べるレベルでした。JavaScriptで惑星のテクスチャをプロシージャル生成し、小惑星帯まで含めたリアルな宇宙を再現。速度制御や軌道の切り替えなど、UXの完成度も極めて高いものでした。
### 結論
この比較を通じて、著者は「実用的な成果(仕事)を求めるならClaudeが最適」と結論付けています。有料版のChatGPTとGeminiを契約していた著者が、無料版のClaudeの圧倒的な実力を見て、サブスクリプションの切り替えを決意するほどの結果となりました。