Liberate your OpenClaw カバー画像

Hugging Face が Liberate your OpenClaw をリリース ── Anthropic制限への Answers

HUGGING FACE

最終更新: 2026年03月30日 20:05 元記事 →

AnthropicがPro/Max層のClaudeモデルへのアクセスを絞り始めた。影響を受ける開発者は少なくないはず。そんな中、Hugging Faceが生存戦略を提示してきた。

何が変わったのか

Anthropicがオープンエージェントプラットフォーム向けのClaudeアクセスを制限。これを受けてHugging Faceが移行ガイド「Liberate your OpenClaw」を公開。OpenClawやPi、Open Codeのエージェントを動かし続けるための2つのルート――Hugging Face Inference Providers経由か、完全ローカル実行――を提示。ホスト型ならGLM-5が推奨モデル。Terminal Benchで高スコアをマークしている。ローカル派ならQwen3.5-35B-A3Bが32GB RAMで動く。HF PRO加入者は月額$2分の無料クレジットが付与される。

前モデル / 競合との比較

従来はClaudeモデル一択だったエージェントバックエンドが、GLM-5やQwen3.5-35B-A3Bといったオープンモデルに置き換え可能に。特にローカル実行ならレート制限なし、APIコストゼロで運用できる。

技術背景と意義

エージェント系ツールはAPI経由でLLMにアクセスする前提で作られていることが多い。だからプロバイダ側がアクセス制限をかけると、そのままではエージェントが死ぬ。Hugging Faceの提案はシンプルで、claude codeやCursorに「help me move my OpenClaw agents to Hugging Face models」と投げるだけ。後はトークン発行してモデル選ぶだけで復旧できる。

こんな人・用途に

Anthropicの制限でOpenClawエージェントが止まってしまった開発者。APIコストを極限まで抑えたい個人開発者。プライバシー要件でローカル完結させたいチーム。

Redditの反応

MacでローカルLLMが爆速で動くという話題で盛り上がってるけど、中身は既存アプリの着せ替えじゃん!と鋭いツッコミが入ってる。期待半分、警戒半分の面白い空気感だ。

r/LocalLLaMA▲ 1

「この投稿がかなりバズってるから、うちのDiscordで特集してみたよ!よかったら見に来てね。貢献に感謝して特別なフレアも付けておいたよ。」

u/WithoutReason1729
r/LocalLLaMA▲ 139

「MacでローカルLLMがこんなに快適に動くなら、次期M5 Mac miniの売上も爆上がり間違いなしだなこれは📈」

u/CultivatingPlant
r/LocalLLaMA▲ 72

「めっちゃ期待してたけどマルウェアが怖かったから、念のためClaudeにコードの監査を依頼した。その結果判明した衝撃の真実。中身はJan.aiのただの着せ替えで、ほとんど変更点はないよ」

u/M5_Maxxx

入手方法・リンク

Hugging Faceでトークンを発行し、openclaw onboard –auth-choice huggingface-api-keyを実行。ローカルの場合はllama.cppをインストール後、llama-server -hf unsloth/Qwen3.5-35B-A3B-GGUF:UD-Q4_K_XLで起動。

SOURCE: Hugging Face (2026-03-28)

← LLM Watch トップへ

類似投稿

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です