API key management and provider selection logic, specifically the conflict between Ollama local placeholder and actual OpenAI API key.
Raw Developer Origin & Technical Request
GitHub Issue
Mar 30, 2026
哈哈哈,果然写出了我平生第一条和代码有关的反馈。谢谢秋芝给了个机会。如果表述得不对,见谅。
问题描述:
我在 macOS Apple Silicon 上安装 Qclaw 后,直接对话里选择了 OpenAI 的模型 `openai/codex-mini-latest`,发送消息时报错:
401 Incorrect API key provided: ollama-local
排查后发现:
1. 聊天会话实际选中的模型是 `openai/codex-mini-latest`
2. OpenClaw 默认主模型也是 `openai/codex-mini-latest`
3. 但本地配置文件 `~/.openclaw/.env` 中被写入了:
OPENAI_API_KEY=ollama-local
同时,在 `~/.openclaw/openclaw.json` 里,本地 Ollama provider 也存在,配置类似:
- baseUrl: 127.0.0.1/v1
- apiKey: ollama-local
我的理解是:
- `ollama-local` 作为本地 Ollama/OpenAI-compatible provider 的占位值是合理的
- 但它不应该被写入 `OPENAI_API_KEY`
- 一旦用户在 Qclaw 中选择 OpenAI 云模型,请求就会把 `ollama-local` 当成真正的 OpenAI key 发出去,从而导致 401
复现路径:
1. 安装并打开 Qclaw
2. 本机存在 Ollama 本地模型配置
3. 在 Qclaw 中选择 OpenAI 模型(如 `openai/codex-mini-latest`)
4. 发送消息
5. 返回 `401 Incorrect API key provided: ollama-local`
建议:
1. 区分本地 OpenAI-compatible provider 的占位 key 与真实 `OPENAI_API_KEY`
2. 不要在配置迁移、初始化或向导过程中把 `ollama-local` 写进 `~/.openclaw/.env`
3. 对 OpenAI provider 增加配置校验:如果 key 是 `ollama-local`、空值或明显占位值,应直接提示配置错误,而不是发请求后 401
4. 在 UI 中提供更明确的“当前模型使用哪个 provider / 哪个 key 来源”的提示,方便用户排查
补充:
我手动检查后,修改 `~/.openclaw/.env` 中的 `OPENAI_API_KEY` 才能修正这个问题。
Developer Debate & Comments
Adjacent Repository Pain Points
Other highly discussed features and pain points extracted from qiuzhi2046/Qclaw.
Engagement Signals
Cross-Market Term Frequency
Quantifies the cross-market adoption of foundational terms like OPENAI_API_KEY and Ollama by tracking occurrence frequency across active SaaS architectures and enterprise developer debates.
Market Trends