通过 llama-server 部署本地 Gemma 4 模型并配置 OpenClaw 将其作为自定义 OpenAI 兼容后端使用。

部署运维📅 2026/04/04
#API#部署#开发者#GitHub#低风险#手动触发#可复用#半自动#代码#代码仓库#本地模型
llama-server -hf ggml-org/gemma-4-26b-a4b-it-GGUF:Q4_K_M

openclaw onboard --non-interactive \
  --auth-choice custom-api-key \
  --custom-base-url "http://127.0.0.1:8080/v1" \
  --custom-model-id "ggml-org-gemma-4-26b-a4b-gguf" \
  --custom-api-key "llama.cpp" \
  --secret-input-mode plaintext \
  --custom-compatibility openai \
  --accept-risk