Tencent が Hy3-preview をリリース ── 295B MoEの怪物、コード・エージェント性能がヤバい
TencentのHy Teamがぶっこみました。総パラメータ295B、そのうちアクティブ21BというMoEモデル「Hy3-preview」。Hugging Faceでいきなり公開された。正直、スペック見て「えっ」となった。特にコードとエージェント系のスコアが振り切れてる。
▸何が変わったのか
最大の特徴はそのアーキテクチャ。Mixture-of-Experts(MoE)で、専門家192人の中から上位8人を動的に選ぶ仕組み。総パラメータ295Bに対してアクティブ21Bで済むから、推論コストを抑えつつ大規模モデルの性能を出せる。MTPレイヤーパラメータが3.8B、コンテキスト長は256K。ベンチマークでは、Kimi-K2 BASE(アクティブ32B)やDeepSeek-V3 BASE(アクティブ37B)と同等かそれに近い成績を、少ないアクティブパラメータで叩き出している。MMLU-Proで65.76は地味にすごい。
◈前モデル / 競合との比較
アクティブパラメータで見ると、Kimi-K2 BASE(32B)やDeepSeek-V3 BASE(37B)より少ない21B。それでいてMMLU-ProではDeepSeek-V3 BASE(63.98)を大きく上回る65.76。MMLU本体は87.42と若干下だが、ほぼ互角。コード・エージェント系では「最大の改善」があったと明言していて、SWE-bench VerifiedやTerminal-Bench 2.0でcompetitiveなスコアを記録。少ないリソースでどこまで戦えるか、という観点でかなり注目できる立ち位置。
◈技術背景と意義
MoE(Mixture-of-Experts)は、「全員で一つの問題を解く」んじゃなくて、「得意分野の専門家だけに任せる」仕組み。192人の専門家がいて、入力に応じて8人が選ばれる。だから総パラメータは295Bあっても、実際に動くのは21B分。電気代も計算時間も節約できる。MTPレイヤーは予測を高速化する追加の仕組み。GQA(Grouped Query Attention)も採用してて、メモリ効率を稼いでいる。コンテキスト256Kは、本数十冊分を一度に読めるレベル。
▸こんな人・用途に
複雑な推論が必要なSTEM系タスク(数学オリンピックレベルの問題とか)。SWE-bench Verifiedなどのコーディングエージェントベンチマークで競争力があるので、実務的なコード生成やバグ修正。BrowseCompやWideSearchで評価されているから、Web検索・情報収集を伴うエージェント用途にも。
◆入手方法・リンク
Hugging Face(tencent/Hy3-preview)で公開済み。ModelScope、cnb.cool、ai.gitcode.comでもミラー展開されている。ライセンスや商用利用の詳細は要確認。
SOURCE: Tencent (2026-04-13)