Hy3-preview-Base カバー画像

Tencent が Hy3-preview-Base をリリース ── 295Bの超巨大MoE、アクティブ21Bで競合を凌駕

TENCENTOSS

最終更新: 2026年04月23日 19:07 元記事 →

Tencentが新型モデルをぶっ込んできた。名前は「Hy3-preview-Base」。総パラメータ295BというとんでもないスケールのMoE(専門家混合)モデルだ。推論時に動くパラメータは21Bに抑えつつ、既存の大型モデルを食うくらいのベンチマークスコアを叩き出している。これ、かなりエグい。

何が変わったのか

最大の特徴は、総パラメータ295Bに対してアクティブパラメータが21B、MTPレイヤーパラメータが3.8Bという構成。192個のエキスパートから賢くtop-8を選択して動く仕組みで、最大256Kという長いコンテキスト長をカバーしている。複雑な推論(STEM)やコーディング、エージェント能力が前述の通り大幅に向上しているという。

前モデル / 競合との比較

アクティブパラメータが21BとDeepSeek-V3 BASE(37B)などより少ないにもかかわらず、MMLU-Proで「65.76」を記録し、DeepSeek-V3 BASEの「63.98」やGLM-4.5 BASEの「63.67」を上回るスコアをマーク。少ない計算リソースから圧倒的な効率で賢さを引き出しているのが際立つ。

技術背景と意義

MoE(Mixture-of-Experts)は、タスクに合わせてAIの頭脳内から適切な「専門家」だけをピックアップして動かす仕組みだ。全部のパラメータを一度に動かさないため、超巨大な頭脳を持ちながら計算コストをグッと抑えられる。今のハイエンドAI開発における鉄板のアプローチと言えるね。

こんな人・用途に

複雑な数学オリンピックレベルの問題などの理系タスク(STEM&Reasoning)。長文から必要な情報を拾い上げる精度が求められるRAGや検索エージェント。SWE-benchなどで評価されるような、高度なコーディングとツール利用を伴う自律型エージェント。

Redditの反応

AI 3Dツールにおけるノードベースのワークフローの有用性について語るスレッドだけど、提供されたコメントを見る限り、特定の拡張機能のインストールでつまずいている人がいるみたい。実用的なトラブル報告といった雰囲気だ。

r/LocalLLaMA▲ 1

「エラー画面のスクショを貼り付けて、「trellis2拡張機能がインストールできないんだけど」と助けを求めている。新しいツールを試そうとして早速壁にぶつかってしまったようだ。」

u/Pitiful_Gene_3648

入手方法・リンク

Hugging Faceにてオープンソースとして公開されている。誰でもモデルをダウンロードして試すことが可能だ。

SOURCE: Tencent (2026-04-13)

← LLM Watch トップへ

類似投稿

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です