Gemma 4: Byte for byte, the most capable open models カバー画像

Google DeepMind が Gemma 4 をリリース ── バイト単位で最も強力なオープンモデル登場

GOOGLE DEEPMIND

最終更新: 2026年04月05日 05:03 元記事 →

Google DeepMindがGemma 4を発表。同一パラメータ数で比較した場合、現存するオープンモデル中最強の性能を叩き出している。特に31BモデルがArena AIのテキストリーダーボードでオープンモデル全体の3位、26Bモデルが6位にランクイン。自分の20倍も巨大なモデルを食う勢いがすごい。

何が変わったのか

4つのサイズで展開。Effective 2B(E2B)、Effective 4B(E4B)、26B Mixture of Experts(MoE)、そして31B Dense。Gemini 3と同じ研究成果・技術基盤から構築されている。累計ダウンロード数は4億回を突破、コミュニティは10万以上のバリアントを生み出した。ライセンスはApache 2.0。単なるチャットbotではなく、複雑な論理推論とエージェント的ワークフローに特化して設計されている点が大きく変わった。

前モデル / 競合との比較

Gemma 4の31B・26Bモデルは、自分より20倍大きいモデルを上回るスコアを記録。前世代からの進化として、単純なチャット性能から複雑な論理推論・エージェントワークフローへの対応が明確な差別化ポイント。

技術背景と意義

パラメータ数あたりの性能、いわゆる「intelligence-per-parameter」が今回の最大のブレイクスルー。少ないパラメータ数で高い性能を実現するから、スマホからノートPC、開発者用ワークステーションまで幅広いハードウェアで動く。E2BとE4Bはエッジデバイス向けに最適化されていて、マルチモーダル対応・低レイテンシ・シームレスな統合を優先。MoE(専門家の混合)アーキテクチャは、入力に応じて必要な部分だけ活性化させることで効率を稼ぐ仕組み。

こんな人・用途に

Android含む数十億のモバイルデバイス上で動くAIアプリを構築したい開発者。INSAITがBgGPT(ブルガリア語特化モデル)を作ったように、特定言語・ドメイン向けファインチューニング。Yale大学とのCell2Sentence-Scaleのような科学研究での活用。

Redditの反応

Qwen3.5の圧倒的な性能への驚きと、Gemma 4の「必要な時だけじっくり考える」挙動への好意的な反応が目立つ。ローカルLLM界隈の熱量がかなり高まっている空気感。

r/LocalLLaMA▲ 261

「Qwen3.5の27Bモデル、マジで化け物級の性能してる。これはかなり熱い。」

u/Apprehensive-View583
r/LocalLLaMA▲ 130

「Gemma 4と並べて使ってみたけど、画像理解の精度もQwen3.5の方が圧倒的に上だった。」

u/Different_Fix_2217
r/LocalLLaMA▲ 85

「31Bモデルにヴィジュネル暗号のヒントを与えたら、200トークン程度であっさり解読。この思考力には驚かされる。」

u/AnticitizenPrime
r/LocalLLaMA▲ 59

「複雑な問題なら16分じっくり考えてくれた。でも普段のチャットは爆速。この切り替えがまさに理想の挙動。」

u/Specter_Origin

入手方法・リンク

Apache 2.0ライセンスで公開。具体的なダウンロードリンクは提供テキストに記載なし。

SOURCE: Google DeepMind (2026-04-02)

← LLM Watch トップへ

類似投稿

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です