内容をスキップ

LLM Watch

  • LLM Watch について
  • お問い合わせ
  • サンプルページ
  • プライバシーポリシー
LLM Watch
  • OpenAI

    OpenAI が「Analyzing data with ChatGPT」を公開 ── データのインサイトから意思決定までをAIに委ねる最強ワークフロー

    Byren_admin 2026年4月11日

    OpenAIが「Analyzing data with ChatGPT」を公開。データの探索から視覚化、アクションに繋げる分析ワークフローを徹底解説。

    続きを読む OpenAI が「Analyzing data with ChatGPT」を公開 ── データのインサイトから意思決定までをAIに委ねる最強ワークフロー次へ

  • OpenAI

    OpenAI が Applications of AI at OpenAI をリリース ── ChatGPT・Codex・APIの実活用を総まとめ

    Byren_admin 2026年4月11日

    OpenAIがChatGPT・Codex・APIの実践活用をまとめた「Applications of AI at OpenAI」を公開。仕事・開発・日常タスクでの具体的な使い方を紹介。

    続きを読む OpenAI が Applications of AI at OpenAI をリリース ── ChatGPT・Codex・APIの実活用を総まとめ次へ

  • Waypoint-1.5: Higher-Fidelity Interactive Worlds for Everyday GPUs カバー画像
    Hugging Face

    Hugging Face が Waypoint-1.5: Higher-Fidelity Interactive Worlds for Everyday GPUs をリリース ── 手元のGPUで720p・60FPSのリアルタイム空間生成

    Byren_admin 2026年4月10日

    手元のGPUで最大720p・60FPSのリアルタイム空間生成を実現。Overworldの最新モデル「Waypoint-1.5」の詳細と魅力を紹介。

    続きを読む Hugging Face が Waypoint-1.5: Higher-Fidelity Interactive Worlds for Everyday GPUs をリリース ── 手元のGPUで720p・60FPSのリアルタイム空間生成次へ

  • Multimodal Embedding & Reranker Models with Sentence Transformers カバー画像
    Hugging Face

    Hugging Face が Multimodal Embedding & Reranker Models with Sentence Transformers をリリース ── テキスト・画像・音声・動画を同じAPIで扱えるマルチモーダル対応が到来

    Byren_admin 2026年4月9日

    Sentence Transformers v5.4でテキスト・画像・音声・動画を同じAPIで扱うマルチモーダル埋め込み・リランカーが追加

    続きを読む Hugging Face が Multimodal Embedding & Reranker Models with Sentence Transformers をリリース ── テキスト・画像・音声・動画を同じAPIで扱えるマルチモーダル対応が到来次へ

  • OpenAI

    OpenAI が The next phase of enterprise AI をリリース ── 企業向けAIの次のフェーズとは

    Byren_admin 2026年4月9日

    OpenAIが企業向けAIの次フェーズを発表。ChatGPT EnterpriseやCodex、全社的AIエージェントの活用で各産業の導入が加速する。

    続きを読む OpenAI が The next phase of enterprise AI をリリース ── 企業向けAIの次のフェーズとは次へ

  • HY-Embodied-0.5 カバー画像
    Tencent

    Tencent が HY-Embodied-0.5 をリリース ── 思考モードを搭載した画像言語モデル

    Byren_admin 2026年4月9日

    Tencentが画像と言語を処理するオープンソースモデル「HY-Embodied-0.5」を公開。16GB VRAMで動作し、思考モードも搭載。

    続きを読む Tencent が HY-Embodied-0.5 をリリース ── 思考モードを搭載した画像言語モデル次へ

  • ALTK‑Evolve: On‑the‑Job Learning for AI Agents カバー画像
    Hugging Face

    Hugging Face が ALTK‑Evolve を発表 ── エージェントが仕事から学ぶ仕組みで「永遠のインターン」問題に挑む

    Byren_admin 2026年4月9日2026年4月10日

    Hugging FaceがAIエージェント向け長期学習システムALTK-Evolveを発表。経験から原則を抽出しガイドラインに変換。

    続きを読む Hugging Face が ALTK‑Evolve を発表 ── エージェントが仕事から学ぶ仕組みで「永遠のインターン」問題に挑む次へ

  • ALTK‑Evolve: On‑the‑Job Learning for AI Agents カバー画像
    Hugging Face

    Hugging Face が ALTK‑Evolve: On‑the‑Job Learning for AI Agents をリリース ── “永遠のインターン”から脱却する長期記憶システム

    Byren_admin 2026年4月9日

    IBM ResearchがALTK-Evolveを発表。AIエージェントに長期記憶を実装し、AppWorldでΔ14.2%の信頼性向上。

    続きを読む Hugging Face が ALTK‑Evolve: On‑the‑Job Learning for AI Agents をリリース ── “永遠のインターン”から脱却する長期記憶システム次へ

  • Safetensors is Joining the PyTorch Foundation カバー画像
    Hugging Face

    Hugging Faceの「Safetensors」がPyTorch Foundationへ移管 ── モデル共有のデファクトが中立性を獲得

    Byren_admin 2026年4月9日

    Hugging Faceのセキュアなモデルフォーマット「Safetensors」がPyTorch Foundationへ移管。ガバナンスがLinux Foundationに移行し、ベンダー中立性を獲得。

    続きを読む Hugging Faceの「Safetensors」がPyTorch Foundationへ移管 ── モデル共有のデファクトが中立性を獲得次へ

  • GLM-5.1 カバー画像
    Zhipu AI

    Zhipu AI が GLM-5.1 をリリース ── 長く動かすほど賢くなるエージェント特化型

    Byren_admin 2026年4月8日

    Zhipu AIのGLM-5.1がHugging Faceに登場。長時間の自律作業で真価を発揮するエージェント特化型で、SWE-Bench Pro等でSOTAを達成。

    続きを読む Zhipu AI が GLM-5.1 をリリース ── 長く動かすほど賢くなるエージェント特化型次へ

ページナビゲーション

前のページ前へ 1 2 3 4 5 6 … 14 次のページ次へ

© 2026 LLM Watch

  • LLM Watch について
  • お問い合わせ
  • サンプルページ
  • プライバシーポリシー