Gemini 3.1 カバー画像

Google DeepMind が Gemini 3.1 Flash-Lite をリリース ── 圧倒的なスピードと低コストで最強コスパ実現

GOOGLE DEEPMIND

最終更新: 2026年03月05日 00:02 元記事 →

Googleがまた新しいモデルを出しましたが、今回はコストパフォーマンスが尋常じゃないです。Gemini 3.1 Flash-Liteというモデルが登場しましたが、この爆速と激安価格設定は見逃せません。大量のリクエストを捌く必要がある開発者にとって、まさに待ち望んでいたモデルと言えるでしょう。

何が変わったのか

Gemini 3.1 Flash-Liteは、同シリーズ中最速かつ最もコスト効率の良いモデルとして登場しました。価格は入力が$0.25/1Mトークン、出力が$1.50/1Mトークンと、とにかく安いです。速度面では、前世代の2.5 Flashと比較して最初の応答までの時間が2.5倍高速化し、出力速度も45%向上しています。品質も妥協しておらず、Arena.aiのリーダーボードではEloスコア1432を記録。さらに「思考レベル(thinking levels)」機能が標準装備され、タスクに応じてモデルの「思考」の深さを調整できるようになりました。

前モデル / 競合との比較

前世代のGemini 2.5 Flashと比較して、応答速度は2.5倍、出力速度は45%向上しています。品質面でもGPQA Diamondで86.9%やMMMU Proで76.8%といったスコアを叩き出し、以前の大型モデルである2.5 Flashを凌駕する性能を発揮しています。

技術背景と意義

これまでの高性能モデルは高価で遅いのが悩みでしたが、このモデルは「大量の処理を安く、超高速で回す」ことに特化しています。特に「Time to First Answer」が2.5倍になっているのは大きな意味で、ユーザーが返答を待つストレスを劇的に減らせるため、チャットボットなどのリアルタイムアプリに最適です。安いのにGPQA Diamondで86.9%、MMMU Proで76.8%という高いスコアを出しており、単なる軽量版ではないのがすごいところですね。

こんな人・用途に

翻訳、コンテンツのモデレーション、ユーザーインターフェースの生成、シミュレーションの作成。

Redditの反応

Reddit上ではまだ話題になっていない様子で、スレッド自体も静かな感じ。唯一のコメントはmod運営にちょっと呆れつつ、過去のニュースを求めているみたいだ。

r/singularity▲ 1

「2日前のニュースはある? 3月2日頃の投稿は見たけど、ここのmodは相変わらずだな…特に昨日の情報が知りたいんだけど。」

u/pavelkomin

入手方法・リンク

開発者はGoogle AI StudioのGemini API、企業はVertex AIを通じてプレビュー版が利用可能です。

SOURCE: Google DeepMind (2026-03-03)

← LLM Watch トップへ

類似投稿

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です