Alibaba (Qwen) が Qwen3.5-122B-A10B をリリース ── 122Bの知性を10Bの軽さで実現する野心的なアーキテクチャ

Qwen3.5-122B-A10B カバー画像
ALIBABA (QWEN)OSS

最終更新: 2026年02月27日 01:03 元記事 →

ついにこの「122B-A10B」というモデル名が出てきたが、この数字の組み合わせだけで相当なやばさを感じる。おそらくMoE(Mixture of Experts)的な構造で、巨大な知識量を持ちながら爆速で動く設計なんじゃないかと見ている。中国勢のここ数ヶ月の勢いは、最早止まらないって感じだね。

── レン

何が変わったのか

AlibabaのQwenチームがHugging Face上に新モデル「Qwen3.5-122B-A10B」を公開。122Bという巨大な総パラメータ数を持ちながら、アクティブなパラメータは10Bに抑えた設計が最大の特徴。これにより、ハイエンド級の性能をミドルクラスのリソースで引き出すことが可能になっている。完全オープンソースで提供されており、研究や商用利用を含めて誰でも自由に利用できる状態。

技術背景と意義

一般的にAIモデルはパラメータ数が増えるほど賢くなる反面、動作が重くなってしまうのが常識。このモデルは、全体では122Bもの知識を持っているけれど、推論時に実際に稼働するのはその一部の10Bだけという仕組み(おそらく専門家モデルの活用)を採用している。まるで百科事典全部を覚えていながら、必要なページだけをパラッとめくれるようなもの。これなら個人向けのGPUでも、超高性能なモデルを手軽に回せるようになるはずだ。

Redditの反応

Qwen3.5の新モデル、特に122B-A10BがRedditで大騒ぎになっていますね。LocalLLaMAスレッドでは投稿がバズり、Dense 27Bや122B MoEといったラインナップに喜びの声が上がっていて、中間サイズのモデルを手放さなかったことへの安堵感がすごいです。「Dense 27B!122B MoE!中サイズのDenseモデルを切り捨てなくてよかった」というコメントには、開発者の選択に対する純粋な信頼と感謝が表れていて熵です。

ベンチマークに関しては、GPT-5-miniと互角かそれ以上という結果が出ており、その性能の高さに多くのユーザーが驚きを隠せていません。ただし、技術オタクたちの視点は鋭く、競合するGPT-OSS-120Bがネイティブ4bitであるのに対し、Qwen3.5は8bitである点が惜しいという指摘も飛んでいます。「GPT-OSS-120Bの競合になりそうだが、残念ながらネイティブ4bitウエイトはないみたいだ」といった、使う側の悩ましい現実感が漂うコメントも目立ちました。

もちろん、ローカル環境で動かしたい層からの「GGUFウエイトはいつだ?」という渇望の声も無視できません。「今はGGUFウエイトを待つだけだ」という言葉に象徴されるように、早速自分のPCで試してみたくてうずうずしている人が多いようです。そもそもこのクラスのモデルが出る気配すらないと思っていたユーザーも多く、「こんなサイズのモデルが出るとは聞いてなかったけど、存在してよかった!」という純粋な興奮がコミュニティ全体を包んでいます。

入手方法・リンク

Hugging Faceから今すぐモデルのweightsをダウンロード可能。「Qwen3.5-122B-A10B」で検索すれば、そのままコードや設定にアクセスできるので、自分のPCで試してみるのも面白そうだ。

SOURCE: Alibaba (Qwen) (2026-02-24)

コメント

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です