次号掲載予定 (2026-03-28号)
#036 164文字 • 1分

TurboQuant: LLMとベクトル検索を劇的に効率化する超高圧縮アルゴリズム

原題: TurboQuant: Redefining AI efficiency with extreme compression

日本語

概要

Google Researchが開発したTurboQuantは、精度を維持したままLLMのKVキャッシュを大幅に削減し、ベクトル検索を高速化する画期的な量子化技術群である。

詳細内容

Google Researchは、大規模言語モデル(LLM)のKVキャッシュやベクトル検索におけるメモリボトルネックを解消する、理論に基づいた新しい量子化アルゴリズム群「TurboQuant」「QJL」「PolarQuant」を発表した。LLMが処理する高次元ベクトルは膨大なメモリを消費するが、TurboQuantはデータを極限まで圧縮しながらも精度損失をゼロに抑えることを可能にする。 具体的には、データを極座標系に変換してメモリオーバーヘッドを排除する「PolarQuant」と、1ビットの符号のみで誤差を補正する「Quantized Johnson-Lindenstrauss (QJL)」を組み合わせている。実験では、Llama-3.1やGemmaなどのモデルにおいて、精度を損なうことなくKVキャッシュを6倍以上削減し、H100 GPU上で最大8倍の高速化を達成した。この技術は、LLMの推論コスト削減だけでなく、数十億のベクトルを扱う次世代のセマンティック検索の高速化にも大きく寄与する。