掲載済み (2026-03-21号)
#221 156文字 • 1分

9Bなのに120B超え!? Qwen3.5-9BがローカルAIの常識を変えた

日本語

掲載情報

概要

Alibabaが公開したQwen3.5-9Bは、新アーキテクチャ「Gated DeltaNet」の採用により、9Bパラメータでありながら120Bクラスの性能と262Kトークンの長文処理をローカル環境で実現した。

詳細内容

AlibabaのQwenチームが公開した「Qwen3.5-9B」は、ローカルAIの勢力図を塗り替える可能性を秘めたモデルです。最大の特徴は、Transformerの大半を新機構「Gated DeltaNet」に置き換えたハイブリッドアーキテクチャにあります。この設計により、計算量とメモリ使用量を劇的に抑えつつ、文庫本数冊分に相当する262Kトークンのネイティブコンテキスト長を16GBのMac等のローカル環境で扱えるようになりました。ベンチマークでは、大学院レベルの科学推論(GPQA Diamond)や指示追従(IFEval)において、120B超の巨大モデルを上回る驚異的なスコアを記録しています。また、ビジョン機能がモデルに統合されており、マルチモーダル推論(MMMU-Pro)でも高い性能を発揮します。Apache 2.0ライセンスで商用利用も無償であり、エッジデバイスでの高度なAI活用を加速させる存在です。