ByteNoteByteNote

字节笔记本

2026年2月19日

OpenClaw 接入第三方大模型完全指南:MiniMax、硅基流动、Kimi Code 等配置详解

当 OpenClaw 成为开发者的新宠,如何让它连接你心仪的 AI 模型?本文将手把手教你接入 MiniMax、硅基流动、Kimi Code 等第三方大模型提供商,让你的智能助手更加强大。

OpenClaw 简介

OpenClaw(原 Clawdbot/Moltbot)是一款开源的 AI 个人助手,支持本地部署,兼容 macOS、Windows 及 Linux 等多种系统。它支持接入常用聊天工具(QQ、企业微信、飞书、钉钉、Telegram、Slack、iMessage 等),让用户通过自然语言控制各种设备和服务。

核心定位:一款功能强大的自动化工具,支持混元、Claude、GPT 等主流大语言模型

接入自定义 AI 提供商

在轻量应用服务器控制台的应用管理中,填写自定义模型相关字段后点击保存即可完成配置。

主流模型配置示例

MiniMax

以 MiniMax 使用 "Anthropic" 协议,使用 MiniMax-M2.5 模型为例:

国内版 - 获取 API Key

json
{
  "provider": "minimax",
  "base_url": "https://api.minimaxi.com/anthropic",
  "api": "anthropic-messages",
  "api_key": "your-api-key-here",
  "model": { "id": "MiniMax-M2.5", "name": "MiniMax M2.5" }
}

国际版 - 获取 API Key

json
{
  "provider": "minimax",
  "base_url": "https://api.minimax.io/anthropic",
  "api": "anthropic-messages",
  "api_key": "your-api-key-here",
  "model": { "id": "MiniMax-M2.5", "name": "MiniMax M2.5" }
}

硅基流动

以硅基流动使用 "OpenAI" 协议,使用 DeepSeek-V3.2 模型为例:

json
{
  "provider": "siliconflow",
  "base_url": "https://api.siliconflow.cn/v1",
  "api": "openai-completions",
  "api_key": "your-api-key-here",
  "model": {
    "id": "deepseek-ai/DeepSeek-V3.2",
    "name": "DeepSeek-V3.2"
  }
}

Kimi Code

⚠️ 注意:在非官方(Kimi CLI)中使用 Kimi Code 会员权益有可能被 Kimi 视为滥用和违规,导致会员权益停用或账号封禁。

使用 Kimi Code,以 Kimi-k2.5 模型为例:

json
{
  "provider": "kimicode",
  "base_url": "https://api.kimi.com/coding",
  "api": "anthropic-messages",
  "api_key": "your-api-key-here",
  "model": {
    "id": "kimi-k2.5",
    "name": "Kimi K2.5"
  }
}

Google Gemini

使用 Google Gemini API,以 Gemini 3 Flash 模型为例:

json
{
  "provider": "google",
  "base_url": "https://generativelanguage.googleapis.com/v1beta/openai",
  "api": "openai-completions",
  "api_key": "your-api-key-here",
  "model": {
    "id": "gemini-3-flash-preview",
    "name": "Gemini 3 Flash"
  }
}

OpenAI (GPT)

官方文档:https://developers.openai.com/api/docs

使用 OpenAI 官方 API,以 GPT-5.2 模型为例:

json
{
  "provider": "openai",
  "base_url": "https://api.openai.com/v1",
  "api": "openai-completions",
  "api_key": "your-api-key-here",
  "model": {
    "id": "gpt-5.2",
    "name": "GPT-5.2"
  }
}

Anthropic Claude

官方文档:https://platform.claude.com/docs/zh-CN/home

使用 Anthropic Claude API,以 Claude Opus 4.6 模型为例:

json
{
  "provider": "anthropic",
  "base_url": "https://api.anthropic.com",
  "api": "anthropic-messages",
  "api_key": "your-api-key-here",
  "model": {
    "id": "claude-opus-4-6",
    "name": "Claude Opus 4.6"
  }
}

xAI Grok

使用 xAI Grok API(兼容 OpenAI 协议),以 Grok 4.1 模型为例:

json
{
  "provider": "xai",
  "base_url": "https://api.x.ai/v1",
  "api": "openai-completions",
  "api_key": "your-api-key-here",
  "model": {
    "id": "grok-4.1",
    "name": "Grok 4.1"
  }
}

OpenRouter

使用 OpenRouter API(兼容 OpenAI 协议),以 NVIDIA: Nemotron 3 Nano 30B A3B 模型(限时免费)为例:

json
{
  "provider": "openrouter",
  "base_url": "https://openrouter.ai/api/v1",
  "api": "openai-completions",
  "api_key": "your-api-key-here",
  "model": {
    "id": "nvidia/nemotron-3-nano-30b-a3b:free",
    "name": "NVIDIA: Nemotron 3 Nano 30B A3B"
  }
}

通用配置模板

如果上述没有你想要的模型,可以使用以下通用模板接入任何兼容 OpenAI/Anthropic 协议的模型:

json
{
  "provider": "provider_name",
  "base_url": "baseurl",
  "api": "API协议",
  "api_key": "your-api-key-here",
  "model": {
    "id": "model_id",
    "name": "model_name"
  }
}

参数说明

参数说明示例
provider提供商名称,自定义即可siliconflow
base_urlAPI 基础地址https://api.siliconflow.cn/v1
apiAPI 协议类型:openai-completions 用于兼容 OpenAI Chat Completions API 的模型;anthropic-messages 用于兼容 Anthropic Messages API 的模型openai-completions
api_key提供商的 API 密钥sk-xxx
model.id模型的唯一标识符deepseek-ai/DeepSeek-V3.2
model.name模型的显示名称DeepSeek-V3.2

常见问题

报错(错误码相关)

99% 的错误码都可以通过长按翻译了解原因。

常见错误码

错误码原因解决方案
401 not authorizedapikey 不正确前往模型提供商检查写入的 API Key 是否正确
429/500余额不足充钱或检查 API Key 是否正确
rate_limit速率限制更换提供商,或联系提供商获取更大配额
404baseurl 不对查看提供商文档寻找兼容 OpenAI Chat Completions API 或 Anthropic Messages API 的 baseurl 地址
403该模型不支持此服务器地域更换服务器地域为模型支持的地域或更换模型

名词释义

  • RPM(Requests Per Minute)表示每分钟请求数
  • TPM(Tokens Per Minute)表示每分钟处理的 Tokens 数量

模型回复慢(响应慢)

若您选择的轻量应用服务器为境外地域且使用境内通道/模型提供商,可能会因跨境网络原因导致延迟较高。

若您选择深度思考模型,可能因上下文过多导致模型思考时间过长,推荐您选择非思考模型/快思考模型进行替代。

Token 消耗过快

OpenClaw 在调用模型时会携带较多上下文信息,以保证任务连贯性与准确性,因此 Token 消耗可能较高。建议在使用时关注 Token 用量与计费情况。

重要提示

在选择模型提供商时,请确定你的轻量应用服务器地域在模型提供商支持的地域中。

总结

OpenClaw 提供了灵活的自定义模型接入能力,支持几乎所有主流的大模型提供商。通过本文的配置示例,你可以轻松将 MiniMax、硅基流动、Kimi Code、Google Gemini、OpenAI、Claude、xAI Grok、OpenRouter 等模型接入 OpenClaw,打造属于自己的智能助手。

对于想要使用第三方模型或自建模型服务的开发者来说,OpenClaw 是一个功能强大且易于扩展的开源解决方案。

分享: