Tencent が HY-WU をリリース ── 学習不要でアダプターを生成する「ニューラルメモリ」搭載
Tencent が HY-WU という名の新たなフレームワークを公開しました。これは単なるモデルではなく、AIに「脳の記憶」のような機能を持たせて、リクエストごとに画像編集用のアダプターをその場で生成する仕組み。いちいちファインチューニングしなくていいなんて、これはかなり効率が良さそう。
▸何が変わったのか
HY-WU は「機能的ニューラルメモリ」を導入した拡張可能なフレームワーク。画像と指示をハイブリッドで表現し、Low-rank (LoRA) アップデートをその場で合成。これをフリーズ済みのバックボーンに注入することで、テスト時の最適化なしにインスタンス固有の演算子を生成します。80B パラメータのような大規模モデルでもスケーラブルであり、構造化されたパラメータトークン化に対応。
◈前モデル / 競合との比較
オープンソースモデルに対して高い人間の好みの勝率を達成し、強力なクローズドソースのベースラインも上回っているほか、最新の「Nano-Banana series」にも迫る性能を持つと主張しています。
◈技術背景と意義
通常、特定の画像に合わせて編集するにはモデルを追加学習(ファインチューニング)する必要がありましたが、HY-WU はこれを「記憶」から動的に生成することで解決しました。ベースとなるモデルをそのまま活かしつつ、その場だけに特化した部品を作って適用するイメージ。これにより、汎用性を損なわずに、個別の要望に応じた編集が可能になります。
▸こんな人・用途に
服を着替えるバーチャル試着や、キャラクターのコスプレ衣装への変更がスムーズにできる「Cross-Domain Clothing Fusion」。高精細な顔の特徴を維持したまま別の画像へ移す「High-Fidelity Face Identity Transfer」などに向いている。
◆入手方法・リンク
GitHub 上の `Tencent-Hunyuan/HY-WU` リポジトリからコードをクローンして使用可能。依存関係をインストールした後、`infer.py` を実行するか、`tencent/HY-WU` と `tencent/HunyuanImage-3.0-Instruct` を用いた `WUPipeline` を呼び出します。
SOURCE: Tencent (2026-03-05)