Hugging Face が Liberate your OpenClaw をリリース ── Anthropic制限への Answers
AnthropicがPro/Max層のClaudeモデルへのアクセスを絞り始めた。影響を受ける開発者は少なくないはず。そんな中、Hugging Faceが生存戦略を提示してきた。
▸何が変わったのか
Anthropicがオープンエージェントプラットフォーム向けのClaudeアクセスを制限。これを受けてHugging Faceが移行ガイド「Liberate your OpenClaw」を公開。OpenClawやPi、Open Codeのエージェントを動かし続けるための2つのルート――Hugging Face Inference Providers経由か、完全ローカル実行――を提示。ホスト型ならGLM-5が推奨モデル。Terminal Benchで高スコアをマークしている。ローカル派ならQwen3.5-35B-A3Bが32GB RAMで動く。HF PRO加入者は月額$2分の無料クレジットが付与される。
◈前モデル / 競合との比較
従来はClaudeモデル一択だったエージェントバックエンドが、GLM-5やQwen3.5-35B-A3Bといったオープンモデルに置き換え可能に。特にローカル実行ならレート制限なし、APIコストゼロで運用できる。
◈技術背景と意義
エージェント系ツールはAPI経由でLLMにアクセスする前提で作られていることが多い。だからプロバイダ側がアクセス制限をかけると、そのままではエージェントが死ぬ。Hugging Faceの提案はシンプルで、claude codeやCursorに「help me move my OpenClaw agents to Hugging Face models」と投げるだけ。後はトークン発行してモデル選ぶだけで復旧できる。
▸こんな人・用途に
Anthropicの制限でOpenClawエージェントが止まってしまった開発者。APIコストを極限まで抑えたい個人開発者。プライバシー要件でローカル完結させたいチーム。
▸Redditの反応
MacでローカルLLMが爆速で動くという話題で盛り上がってるけど、中身は既存アプリの着せ替えじゃん!と鋭いツッコミが入ってる。期待半分、警戒半分の面白い空気感だ。
「この投稿がかなりバズってるから、うちのDiscordで特集してみたよ!よかったら見に来てね。貢献に感謝して特別なフレアも付けておいたよ。」
「MacでローカルLLMがこんなに快適に動くなら、次期M5 Mac miniの売上も爆上がり間違いなしだなこれは📈」
「めっちゃ期待してたけどマルウェアが怖かったから、念のためClaudeにコードの監査を依頼した。その結果判明した衝撃の真実。中身はJan.aiのただの着せ替えで、ほとんど変更点はないよ」
◆入手方法・リンク
Hugging Faceでトークンを発行し、openclaw onboard –auth-choice huggingface-api-keyを実行。ローカルの場合はllama.cppをインストール後、llama-server -hf unsloth/Qwen3.5-35B-A3B-GGUF:UD-Q4_K_XLで起動。
SOURCE: Hugging Face (2026-03-28)


