Tencent が Hy3-preview-Base をリリース ── 295Bの超巨大MoE、アクティブ21Bで競合を凌駕
Tencentが新型モデルをぶっ込んできた。名前は「Hy3-preview-Base」。総パラメータ295BというとんでもないスケールのMoE(専門家混合)モデルだ。推論時に動くパラメータは21Bに抑えつつ、既存の大型モデルを食うくらいのベンチマークスコアを叩き出している。これ、かなりエグい。
▸何が変わったのか
最大の特徴は、総パラメータ295Bに対してアクティブパラメータが21B、MTPレイヤーパラメータが3.8Bという構成。192個のエキスパートから賢くtop-8を選択して動く仕組みで、最大256Kという長いコンテキスト長をカバーしている。複雑な推論(STEM)やコーディング、エージェント能力が前述の通り大幅に向上しているという。
◈前モデル / 競合との比較
アクティブパラメータが21BとDeepSeek-V3 BASE(37B)などより少ないにもかかわらず、MMLU-Proで「65.76」を記録し、DeepSeek-V3 BASEの「63.98」やGLM-4.5 BASEの「63.67」を上回るスコアをマーク。少ない計算リソースから圧倒的な効率で賢さを引き出しているのが際立つ。
◈技術背景と意義
MoE(Mixture-of-Experts)は、タスクに合わせてAIの頭脳内から適切な「専門家」だけをピックアップして動かす仕組みだ。全部のパラメータを一度に動かさないため、超巨大な頭脳を持ちながら計算コストをグッと抑えられる。今のハイエンドAI開発における鉄板のアプローチと言えるね。
▸こんな人・用途に
複雑な数学オリンピックレベルの問題などの理系タスク(STEM&Reasoning)。長文から必要な情報を拾い上げる精度が求められるRAGや検索エージェント。SWE-benchなどで評価されるような、高度なコーディングとツール利用を伴う自律型エージェント。
▸Redditの反応
AI 3Dツールにおけるノードベースのワークフローの有用性について語るスレッドだけど、提供されたコメントを見る限り、特定の拡張機能のインストールでつまずいている人がいるみたい。実用的なトラブル報告といった雰囲気だ。
「エラー画面のスクショを貼り付けて、「trellis2拡張機能がインストールできないんだけど」と助けを求めている。新しいツールを試そうとして早速壁にぶつかってしまったようだ。」
SOURCE: Tencent (2026-04-13)