
用户将本地 AI 模型部署切换到了通过 Ollama 托管的云端 Gemma 4 31B 模型。
将 AI 推理迁移到使用 Gemma 4 31B 模型的 Ollama Cloud。
📅 2026/04/05
Deploy & Ops
探索 部署运维 风格的 OpenClaw 玩法

将 AI 推理迁移到使用 Gemma 4 31B 模型的 Ollama Cloud。
📅 2026/04/05


配置 OpenAI Codex 认证以替代被禁用的 Claude 订阅,维持 OpenClaw 正常运行。
📅 2026/04/04

配置 OpenClaw 调用本地 Claude CLI 二进制文件作为后端,以规避 OAuth 限制并利用现有订阅额度。
📅 2026/04/04

采用 Opus 编排配合本地模型(Gemma/Qwen)执行的混合 AI 架构,以规避禁令并降低成本。
📅 2026/04/04

配置 OpenClaw 通过自定义 API 端点连接本地运行的 Gemma 4 模型。
📅 2026/04/04

通过本地部署大模型替代昂贵的云端 API 调用,降低 AI 智能体运行成本。
📅 2026/04/04

设置 OpenClaw 对接 Brave 搜索,确保代理查询零数据保留和隐私安全。
📅 2026/04/04

从手动耗时 5 小时的 VPS 部署切换到使用 AtomicBot 进行一键本地化部署 OpenClaw。
📅 2026/04/04

利用新开源工具在仅需 10MB 内存的嵌入式设备上本地部署 AI 代理和自动化工作流,无需云端基础设施。
📅 2026/04/03

显示第 1 - 12 至 195 项