Mistral が Mistral-Small-4-119B-2603-eagle をリリース ── 推論・コード・ビジネスを1つに統合したハイブリッドモンスター
Mistralが完全オープンソースの新モデル「Mistral Small 4」を公開して、その完成度の高さにざわついている。なんとこれまで別々だった「チャット」「推論」「コーディング(Devstral)」という3つの系譜を、たった一つのモデルに統合してしまったんだ。しかも前モデルから爆速化されていて、これはもう手放せない代わりになりそう。
▸何が変わったのか
今回のモデルは総パラメータ数119B、アクティブパラメータ6.5Bという構成で、128の専門家(Experts)のうち4つをアクティブにするMoEアーキテクチャを採用。コンテキスト長は256kを誇り、テキストと画像の両方を入力できるマルチモーダル機能も備えている。パフォーマンスに関しては、Mistral Small 3と比較してレイテンシ最適化時に完了時間が40%短縮、スループット最適化時には1秒あたりのリクエスト処理数が3倍に大幅向上したとのこと。さらに、リクエストごとに「Reasoning Mode」のON/OFFを切り替えられる機能や、Apache 2.0ライセンスでの完全なOSS提供も大きな進化点だ。
◈前モデル / 競合との比較
前バージョンであるMistral Small 3と比較して、レイテンシ最適化環境でエンドツーエンドの完了時間が40%削減され、スループット最適化環境では1秒あたりの処理リクエスト数が3倍に向上している。
◈技術背景と意義
これまでは「普段使いの軽いモデル」と「複雑な思考をする重いモデル」を使い分けるのが一般的だったが、Mistral Small 4はこの両方の役割を1つでこなせるように設計されているんだ。ポイントは「MoE」という技術で、実際に計算を行う脳の一部を必要な時だけ選んで使うため、全体では119Bという巨大な知識を持ちながらも、処理速度は驚くほど軽快に保たれている。これにより、ユーザーはその場のタスクに合わせて「高速回答」か「熟考モード」かを即座に切り替えられるようになった。
▸こんな人・用途に
SWE自動化やコードベースの探索を行う開発者、ドキュメント理解や汎用的なチャットアシスタントを必要とする企業、数学や研究分野を扱う研究者に最適。
◆入手方法・リンク
Hugging Faceからモデルの重みを入手可能で、推論にはvLLMライブラリの使用が推奨されている。ツール呼び出しや推論解析の修正が含まれたカスタムDockerイメージ「mistralllm/vllm-ms4:latest」も提供されている。
SOURCE: Mistral (2026-03-04)