前提条件
- 已注册本产品
- API Key(
sk-xxxxx)
OpenClaw
开源个人 AI 助手平台。使用 OpenAI 兼容协议,Base URL:https://coding.huaqing.online/v1
openclaw dashboard),在 配置 → RAW 中添加配置。注意 reasoning 必须设为 false。
Cline
VSCode 智能编程插件。使用 OpenAI 兼容协议。 安装后选择 Bring my own API key → OpenAI Compatible → 填入 Base URLhttps://coding.huaqing.online/v1 和 API Key。
Roo Code
VS Code 智能编程插件。优先使用 OpenAI 兼容方式接入本产品。- 在 VS Code 扩展市场搜索并安装
Roo Code - 打开 Roo Code 的设置页,找到 API 配置项:
- API Provider:选择 OpenAI Compatible(或同类的自定义/OpenAI 兼容选项)
- Base URL / Endpoint:
https://coding.huaqing.online/v1 - API Key:填写本产品 API Key
- Model:填写/选择模型 ID(如
glm-5.1、glm-4.7、qwen3.6-plus、kimi-k2.5、MiniMax-M2.5)
https://docs.bigmodel.cn/cn/coding-plan/tool/roo。
Hermes Agent
自治型 AI Agent(CLI)。按其官方文档完成安装后,推荐用 Custom endpoint / custom provider 的方式接入本产品的 OpenAI 兼容端点。 参考文档:Hermes Agent Documentation,以及关于自定义/自托管 Provider 的说明:Custom / self-hosted LLM providers。1) 准备信息
- Base URL / Endpoint:
https://coding.huaqing.online/v1 - API Key:本产品 API Key
- Model(模型 ID):
glm-5.1/glm-4.7/qwen3.6-plus/kimi-k2.5/MiniMax-M2.5
2) 配置方式 A:使用交互式菜单添加 Custom endpoint(推荐)
在 Hermes 的交互式模型菜单中添加自定义端点(custom endpoint),把 Base URL 与 API Key 填为上述值。- 如果 Hermes 询问 context length:
- 留空通常可让 Hermes 自动探测或使用缓存/默认值
- 仅在你明确需要限制上下文、或你的代理/网关不暴露模型列表接口时,才建议手动填写
3) 配置方式 B:在 config.yaml 中声明 named custom provider
适用于你想在多套端点间快速切换,或希望把 API Key 放在环境变量中。
4) 运行时切换端点/模型
Hermes 支持用“三段式”选择命名 provider 与模型:custom_providers(例如 local、work),也可用同样格式在会话中随时切换。
Cherry Studio / Chatbox
桌面客户端,均使用 OpenAI 兼容协议。- API 地址:
https://coding.huaqing.online/v1 - API Key:本产品专属 API Key
- 新建模型,填入模型 ID(如
qwen3.6-plus)
