OpenClaw(前 Clawdbot / Moltbot)这东西确实猛:本地跑、接 WhatsApp/Telegram、自动清邮件、盯盘、写代码、订机票……但 token 吃得像我老婆买包——一天几百万 token 不是梦。Reddit 上有人 6 小时 Opus 4.5 烧 $170,GitHub discussion #1949 里天天哭穷,月账单 $100-300 很常见。Anthropic/Claude 按量贵得离谱,$15-75/M tokens(input/output),agent swarm 一开,成本指数级爆炸。 但别慌,2026 年模型价格雪崩 + OpenClaw model-agnostic 设计,让你能把月成本压到 $0-30,甚至 $0。以下是深入调研后的“穷人版”降本全攻略(基于 OpenRouter、Groq、Gemini、DeepSeek、Ollama 等最新数据 + 社区真实案例)。 1. **先关掉烧钱开关(立即省 50-80%)** - 温度调低:temperature=0.0-0.2(默认高会 hallucinate 狂循环)。 - 关 vision/sub-agents:别让它看图/开多线程,除非必须。 - 短上下文 + 总结:用 short-term memory,只传必要 history。 - 加 caching:OpenRouter 启用 caching(重复 prompt 免费),GitHub 上很多人说省 30-70%。 - 限速 + 优先级:设 low-priority model,只复杂任务 fallback 高端。 → 很多人光调这些,账单直接腰斩。 2. **免费/超高额度通道($0 起步,首推)** - **Google Gemini 2.5 Flash / 3 Pro**(via Google AI Studio 或 Antigravity 插件):免费额度百万 token 级,上下文 1M+,推理已追平 Claude Sonnet。OpenClaw 里 `openclaw models auth login --provider google-antigravity` 或填 API key。社区反馈:24/7 bot 基本不花钱,速度快,agent 任务稳。 - **Groq**(Llama 3.3 70B、Mixtral、DeepSeek 等):免费 tier RPM/QPS 超高,几乎无限。https://t.co/XexJQKQ3G0 注册 key,OpenClaw OpenAI-compatible 直插。延迟最低,适合实时。 - **OpenRouter 免费模型**(https://t.co/8t3BryYH3f):MiMo 309B MoE、Devstral 2、DeepSeek R1T2 Chimera free、Arcee Trinity 等几十个 $0/M。能力已匹配 Claude/GPT-4o 部分场景。填 OpenRouter key,base_url https://t.co/1W3YHUA7lb。 → 调研显示:80% 用户切这些后月成本 $0-10。 3. **超低成本付费通道($0.05-0.50/M,10x 便宜)** - **DeepSeek V3.2**:$0.25-0.38/M input/output,推理超 GPT-4o 很多 benchmark。OpenClaw 直用。 - **Kimi K2.5**(Moonshot):新用户 15 元免费,后续极便宜(尤其是 reasoning + vision)。base_url https://t.co/yx3kuI47Y6。 - **Fireworks / https://t.co/RhI5CCQmiL / SiliconFlow**:开源模型路由,$0.10-0.50/M,专为 agent 优化。 - **OpenRouter 低价模型**:DeepSeek、Qwen、Seed Flash 等 $0.05-0.50/M。自动 fallback + uptime 优化。 → 社区案例:从 Claude Opus 切 DeepSeek + OpenRouter,成本降 80-90%,性能只掉 10-20%。 4. **终极 $0:本地跑 Ollama / LM Studio(电费而已)** - 装 Ollama(https://t.co/hHcMO49LjJ),跑 Qwen3-72B / Llama 3.3 70B / DeepSeek-Coder-V2 等。 - OpenClaw 支持 auto-discovery:`ollama serve`,然后 provider 设 ollama,base_url http://localhost:11434/v1。 - 你的老 Mac(16GB+ RAM)跑 7B-13B 流畅,32GB+ 试 70B。量化版(Q4/Q5)速度快。 - 混合用:80% 日常任务本地小模型,复杂 reasoning fallback 云端(OpenClaw 支持 multi-provider routing)。 → Reddit / YouTube 教程满天飞,很多人说“本地 + 云 fallback” 是终极省钱法,隐私拉满。 5. **进阶省钱技巧(社区高玩玩法)** - Model failover:config 里设 primary Gemini/Groq,fallback DeepSeek。 - Skills 优化:只装必要 skill,关掉 auto-run cron jobs。 - 监控 token:装 quota skill 或日志看用量,设 alert。 - 专用机 + 定时 update:老 Mac 跑本地,省电费也省 token。
From X

Disclaimer: The above content reflects only the author's opinion and does not represent any stance of CoinNX, nor does it constitute any investment advice related to CoinNX.

0