掲載済み (2026-03-07号)
#136 160文字 • 1分

NanoGPT Slowrun: 限定されたデータと無限の計算資源による言語モデリングへの挑戦

原題: NanoGPT Slowrun - Q Language Modeling with Limited Data, Infinite Compute

英語

掲載情報

概要

Q Labsが主導する「NanoGPT Slowrun」は、データ供給のボトルネックを解消するため、限られたデータ量で計算資源を最大限活用し、学習効率を極限まで高める新しいアルゴリズムの探求プロジェクトである。

詳細内容

現在のスケーリング則はデータと計算資源の比例的な増加を前提としているが、ロボティクスやバイオロジーといった分野ではデータ収集がボトルネックとなっている。これに対し、Q Labsは「NanoGPT Slowrun」を通じて、100Mトークンという固定されたデータセット内で計算資源を無制限に投入し、いかに効率的に学習できるかを追求している。従来の「学習速度」を競うベンチマークとは対照的に、計算コストの高い2次最適化手法や強力な正則化を許容するのが特徴。現在の成果として、Muonオプティマイザ、マルチエポック学習、SwiGLUの採用、モデルアンサンブル等を組み合わせることで、標準的なベースラインと比較して5.5倍のデータ効率を達成した。今後、2次最適化手法やカリキュラム学習、拡散モデルの応用などを通じて、年内に100倍の効率化を目指している。