目前OpenClaw添加一个新的大模型 provider 最快的方式是通过命令行直接写入配置,主流做法有两种:

  1. 最推荐、最快的方式(适用于绝大部分 OpenAI 兼容接口的模型)
    使用 openclaw config set 一行命令直接添加 provider
  2. 手动编辑配置文件(更保险,但稍微慢一点)

方式一:一行命令快速添加(推荐)绝大多数国内/国外第三方大模型都兼容 OpenAI 接口,用下面这套模板就行:

# 格式
openclaw config set 'models.providers.你的provider名字' --json '{
  "baseUrl": "https://api.xxx.com/v1",
  "apiKey": "sk-你的密钥",
  "api": "openai",           # 或 "openai-completions" / "anthropic-messages" 等
  "models": [
    {
      "id": "模型实际名字",
      "name": "显示的名字(随便起)",
      "reasoning": false,
      "input": ["text"],
      "cost": {"input":0,"output":0,"cacheRead":0,"cacheWrite":0},
      "contextWindow": 131072,
      "maxTokens": 8192
    }
  ]
}' --json

案例1. 接入硅基流动 / siliconflow(非常快)

openclaw config set 'models.providers.siliconflow' --json '{
  "baseUrl": "https://api.siliconflow.cn/v1",
  "apiKey": "sk-你的siliconflow key",
  "api": "openai",
  "models": [
    {
      "id": "Qwen/Qwen3-32B-Instruct",
      "name": "Qwen3-32B",
      "contextWindow": 131072,
      "maxTokens": 8192
    },
    {
      "id": "deepseek-ai/DeepSeek-R1",
      "name": "DeepSeek-R1"
    }
  ]
}' --json

然后设置默认模型:

openclaw config set 'agents.defaults.model.primary' 'siliconflow/Qwen/Qwen3-32B-Instruct'
  1. 接入 GLM-5 / 智谱(国际版或代理)

openclaw config set 'models.providers.zhipu' --json '{
  "baseUrl": "https://open.bigmodel.cn/api/paas/v4",
  "apiKey": "你的智谱key",
  "api": "openai",
  "models": [{"id": "glm-5","name": "GLM-5","contextWindow": 200000}]
}' --json
  1. 接入本地 Ollama / vLLM / llama.cpp

openclaw config set 'models.providers.local' --json '{
  "baseUrl": "http://127.0.0.1:11434/v1",
  "apiKey": "ollama",
  "api": "openai",
  "models": [{"id": "qwen2.5:32b","name": "Qwen2.5 32B"}]
}' --json

方式二:直接编辑配置文件(更可控)

# 打开配置文件(推荐用 nano / vim / code)
code ~/.openclaw/openclaw.json
# 或者
nano ~/.openclaw/openclaw.json

在 models.providers 里加一个新对象,例如:

"models": {
  "providers": {
    "myprovider": {
      "baseUrl": "https://api.example.com/v1",
      "apiKey": "sk-xxxx",
      "api": "openai",
      "models": [
        {
          "id": "model-name",
          "name": "My Awesome Model",
          "contextWindow": 128000,
          "maxTokens": 8192
        }
      ]
    }
  }
}

保存后执行:

openclaw models status          # 查看是否识别
openclaw models list            # 列出所有可用模型

然后设置主模型:

openclaw config set 'agents.defaults.model.primary' 'myprovider/model-name'

快速验证是否成功

# 查看当前所有 provider 和模型
openclaw models list

# 测试对话(走默认模型)
openclaw chat "你好,请告诉我今天日期"

基本上 1–2 分钟就能搞定一个新 provider。祝使用愉快~如果遇到某个具体厂商的坑(比如 anthropic 格式、MiniMax 特殊头、火山引擎 region 等),可以告诉我模型名字,我帮你写最适配的命令。

以下是针对你提到的三种特殊情况,在 OpenClaw中最可靠的配置写法。这些 provider 都不走纯标准的 OpenAI Chat Completions 接口,所以 api 字段必须改成对应的值,否则工具调用、缓存、思考链等功能容易出问题。1. Anthropic 原生格式(Claude 系列、直连或代理)Anthropic 必须用 anthropic-messages,否则 tool_use / tool_result 会解析失败,prompt caching 也用不了。一行命令写法(推荐)

openclaw config set 'models.providers.anthropic-direct' --json '{
  "baseUrl": "https://api.anthropic.com/v1",
  "apiKey": "sk-ant-api03-你的key",
  "api": "anthropic-messages",
  "models": [
    {
      "id": "claude-opus-4-6-20250215",
      "name": "Claude Opus 4.6",
      "reasoning": true,
      "contextWindow": 200000,
      "maxTokens": 8192,
      "cost": {"input":3,"output":15}
    },
    {
      "id": "claude-sonnet-4-5-20250120",
      "name": "Claude Sonnet 4.5"
    }
  ]
}' --json

然后设置默认:

openclaw config set 'agents.defaults.model.primary' 'anthropic-direct/claude-opus-4-6-20250215'

如果用代理(如 apiyi、siliconflow 转 anthropic)
把 baseUrl 改成代理地址,api 还是 anthropic-messages(确认代理支持原生 messages 接口)。

  1. MiniMax(强烈推荐用 anthropic-messages 模式)MiniMax 官方最稳的是 Anthropic 兼容端点(尤其是 M2.1 / M2.5 系列),支持 prompt caching 和 native tool calling。一行命令写法(2026 年主流)

openclaw config set 'models.providers.minimax' --json '{
  "baseUrl": "https://api.minimax.io/anthropic",
  "apiKey": "你的 MiniMax key(eyJhbGciOi...)",
  "api": "anthropic-messages",
  "models": [
    {
      "id": "minimax-m2.5",
      "name": "MiniMax M2.5",
      "reasoning": true,
      "contextWindow": 1000000,
      "maxTokens": 32000
    },
    {
      "id": "minimax-m2.1",
      "name": "MiniMax M2.1"
    }
  ]
}' --json

设置默认:

bash

openclaw config set 'agents.defaults.model.primary' 'minimax/minimax-m2.5'

备选(如果必须用 OpenAI 兼容端点)
把 baseUrl 改成 https://api.minimax.io/v1,api 改成 openai,但工具调用稳定性会差一些。3. 火山引擎 Ark(volcengine / ark)火山方舟 Coding / Pro 模型目前主流用 OpenAI 兼容接口,但 endpoint 带 region,要指定 coding 或通用 v3。一行命令写法(以 ark-code-latest 为例)

openclaw config set 'models.providers.volc-ark' --json '{
  "baseUrl": "https://ark.cn-beijing.volces.com/api/coding/v3",
  "apiKey": "你的 Ark API Key",
  "api": "openai-completions",
  "models": [
    {
      "id": "ark-code-latest",
      "name": "Ark Code Latest (Coding Plan)",
      "contextWindow": 131072,
      "maxTokens": 8192
    },
    {
      "id": "doubao-1.5-pro-32k",
      "name": "Doubao 1.5 Pro 32k"
    }
  ]
}' --json

如果用通用 endpoint(非 coding 专用):

设置默认:

openclaw config set 'agents.defaults.model.primary' 'volc-ark/ark-code-latest'

快速验证 & 常见坑执行后跑下面命令检查:

openclaw models list                # 看是否出现新 provider 和模型
openclaw models status              # 检查连通性
openclaw chat "测试一下,你支持工具调用吗?给我当前日期"   # 简单验证

最常见失败原因排序:

  1. api 字段写错(anthropic 系列必须 anthropic-messages)

  2. baseUrl 带了多余的 /v1 或少了 /anthropic

  3. key 过期 / 配额超 / region 不对(火山默认 cn-beijing,少数用 cn-north-1)

  4. 模型 id 写错(尤其是火山,要从控制台复制 endpoint id)

如果遇到具体报错(比如 400/422、tool use 失败、region forbidden),把报错贴出来,我帮你 debug 对应的命令。