通过 llama-server 部署本地 Gemma 4 模型并配置 OpenClaw 将其作为自定义 OpenAI 兼容后端使用。
部署运维📅 2026/04/04
#API#部署#开发者#GitHub#低风险#手动触发#可复用#半自动#代码#代码仓库#本地模型
llama-server -hf ggml-org/gemma-4-26b-a4b-it-GGUF:Q4_K_M openclaw onboard --non-interactive \ --auth-choice custom-api-key \ --custom-base-url "http://127.0.0.1:8080/v1" \ --custom-model-id "ggml-org-gemma-4-26b-a4b-gguf" \ --custom-api-key "llama.cpp" \ --secret-input-mode plaintext \ --custom-compatibility openai \ --accept-risk
