模型提供商
OpenClaw 可以使用多种 LLM 提供商。选择一个提供商,完成认证,然后将默认模型设置为provider/model。
在找聊天渠道文档(WhatsApp/Telegram/Discord/Slack/Mattermost(插件)/等)?请参阅渠道。
推荐:Venice (Venice AI)
Venice 是我们推荐的 Venice AI 配置方案,适合注重隐私的推理场景,并可选择使用 Opus 处理复杂任务。- 默认:
venice/llama-3.3-70b - 综合最佳:
venice/claude-opus-45(Opus 仍然是最强的)
快速开始
- 向提供商进行认证(通常通过
openclaw onboard)。 - 设置默认模型:
提供商文档
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM 模型
- MiniMax
- Venice (Venice AI,注重隐私)
- Ollama (本地模型)
转录提供商
社区工具
- Claude Max API 代理 - 将 Claude Max/Pro 订阅用作 OpenAI 兼容的 API 端点