Qwen3.6-27B カバー画像

Alibaba (Qwen) が Qwen3.6-27B をリリース ── エージェント型コーディングで27Bモデルがついに覚醒

ALIBABA (QWEN)OSS

最終更新: 2026年04月24日 07:02 元記事 →

Qwen3.5のリリースから数ヶ月、Alibabaが早くもQwen3.6シリーズの第一弾を投入してきた。27Bパラメータという中規模サイズでありながら、エージェント型コーディングタスクでClの4.5 Opusに肉薄するスコアを叩き出している。特にTerminal-Benchの跳ね上がり方が異常だ。

何が変わったのか

最大のアップデートは「Agentic Coding」の強化。フロントエンドワークフローやリポジトリレベルの推論がよりスムーズになった。新機能「Thinking Preservation」も追加され、履歴メッセージの推論コンテキストを保持できるように。これで反復開発のオーバーヘッドが減る。コンテキスト長はネイティブで262,144、最大1,010,000トークンまで拡張可能。アーキテクチャも特徴的で、Gated DeltaNet(線形注意力)とGated Attention(標準的な注意力)を16:1の比率で混在させるハイブリッド構成を採用している。

前モデル / 競合との比較

Qwen3.5-27Bとの比較では、Terminal-Bench 2.0が41.6→59.3と劇的改善。SWE-bench Verifiedも75.0→77.2へ向上。SkillsBench Avg5に至っては48.2を記録し、Gemma4-31Bの23.6を圧倒。Clの4.5 Opusには及ばない部分もあるが、AIME26で94.1(Clの95.1に接近)、HMMT Feb 25で93.8と数学系でも好調。GPQA Diamondでは87.8と、Qwen3.5-397B-A17Bの88.4に迫る。

技術背景と意義

Qwen3.6の面白さは「安定性と実用性」に振り切った点。コミュニティのフィードバックを反映したという。27Bというサイズは、ローカル動作も視野に入るギリギリのライン。DeltaNetと標準Attentionのハイブリッドは、長文処理の効率と精度のバランスを取る工夫。MTP(multi-step prediction)による学習も取り入れている。

こんな人・用途に

フロントエンド開発の自動化・補助(HTML/CSS/JSのワークフロー対応)。大規模リポジトリの理解を伴うコード修正・リファクタリング。多言語でのソフトウェア開発(多言語SWE-benchで71.3を記録)。

Redditの反応

Qwen3.6-27BがOpus 4.5と同等か?という問いに対し、ベンチマークと実用の差を指摘する懐疑的な声が大半。ただし模型自体の評価は悪くなく、「もうAnthropicに金は払わない」という声も飛び出すなど、ローカル派の淡い期待と諦めが入り混じった空気。

r/LocalLLaMA▲ 15

「ベンチマークだけ見れば同等かも。でも実際はたぶん違う。ただ、ベンチマーク用のClaudeがフル精度で、課金して使う方は量子化で脳みそ削られてるなら話は別かも?」

u/JHShim1
r/LocalLLaMA▲ 12

「別の見方をすると、もうAnthropicには一円も払いたくないから比較すらどうでもいい。」

u/ambient_temp_xeno
r/LocalLLaMA▲ 11

「多分、同等じゃない。ベンチマークは第一次選考としては有用だけど、実際に使い込むと差が出るはず。とはいえ明らかに強力な模型で、かなり使えるとは思う。」

u/dinerburgeryum

入手方法・リンク

Hugging Faceでモデルウェイトと設定ファイルが公開済み。vLLM、SGLang、KTransformersなど主要な推論フレームワークと互換性がある。

SOURCE: Alibaba (Qwen) (2026-04-21)

← LLM Watch トップへ

類似投稿

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です