Hugging Face が What’s New in Mellea 0.4.0 + Granite Libraries Release をリリース ── LLMの「カオス」に構造を与えるIBMの新アプローチ
LLMを使った開発は便利だけど、出力が不安定で「何が出るかわからない」ことに頭を悩ませている人は多いはず。そんな課題に向き合うIBM Researchのオープンソース・ライブラリ「Mellea 0.4.0」と、専用の「Granite Libraries」が登場しました。確率論的なプロンプト処理から脱却し、メンテナンス可能で構造化されたAIワークフローを実現しようとする試み、かなり興味深いです。
▸何が変わったのか
今回の目玉は「Mellea 0.4.0」のリリースと、それに伴う3つの「Granite Libraries(granitelib-rag-r1.0、granitelib-core-r1.0、granitelib-guardian-r1.0)」の登場です。MelleaはLLMベースのプログラムを予測可能かつ保守しやすくするために設計されたPythonライブラリで、0.4.0ではアーキテクチャパターンが拡張されています。具体的には、Granite Librariesとのネイティブ統合による制約付きデコーディングや、棄却サンプリング戦略を用いた「Instruct-validate-repairパターン」が含まれています。さらに、ワークフローを監視・追跡するためのオブザーバビリティフックも実装され、運用面でも強化されました。
◈前モデル / 競合との比較
汎用的なオーケストレーションフレームワークと異なり、Melleaは保守性と予測可能性に特化しており、特に制約付きデコーディングによる構造化された出力制御に強みがあります。前バージョンである0.3.0で導入された基礎ライブラリをベースに、統合範囲の拡大と新しいアーキテクチャパターンが追加されています。
◈技術背景と意義
通常、LLMへの指示は文章で行うため、出力結果がバラついたり、想定外の回答(ハルシネーション)が出たりしがちです。Melleaはこれに対し、出力形式を厳密に制限する「制約付きデコーディング」や、間違いを検出して修正するループ構造を導入することで、プログラムのように動作を安定させます。一方のGranite Librariesは、特定のタスク(RAGや安全性チェックなど)に特化した軽量なアダプタ(LoRA)の集合体です。巨大なモデルで無理やり全部やるのではなく、役割分担をさせることで精度と効率を両立しようという、エンタープライズ向けの真面目なアプローチと言えます。
▸こんな人・用途に
検索拡張生成(RAG)の精度を高めたいエージェント開発者、特にクエリの書き換えや事後チェックを自動化したい人。厳密なスキーマ遵守やポリシー違反の検出など、安全で信頼性の高い業務用AIワークフローを構築する企業の開発チーム。
◆入手方法・リンク
MelleaはIBM Researchが開発したオープンソースのPythonライブラリで、GitHubのリポジトリから入手・インストール可能です。今回リリースされたGranite Librariesは「granite-4.0-micro」モデル向けに提供されており、Mellea 0.4.0を通じてネイティブに統合して利用できます。
SOURCE: Hugging Face (2026-03-20)
