跳转至

OpenClaw大龙虾(原ClawdBot/MoltBot)

一、云服务器推荐(本地安装的忽略)

强烈推荐云端部署:1、24小时在线 2、云端环境纯粹部署更简单 3、境外服务器可直接操作外网无需本地买魔法软件 3、不与本地电脑绑定,换电脑、手机都可使用大龙虾

阿里云: 优点是高度优化,速度快,动力强,2C2G的服务器性能就堪比别家的4C4G

腾讯云:优点是提供了可视化配置大模型的简化页面,并且网速还是不错的(接入自家QQ的教程写的很完善)

虽然云服务器上跑大龙虾有24小时不间断的优势,但是如果您是开发者,我们强烈建议您在本地也安装一个,本地电脑上探索,然后在云服务器上实时稳定的业务工作;如果您没有技术基础,建议购买单独的云服务器,或者购买Mac mini来做这件事,避免因大龙虾拥有系统最高权限而对您自己的工作电脑造成永久性损害。


二、配置使用(根据场景任选一种,不要害怕!)

方式1:(本地极度推荐)有道小龙虾配置

本地电脑安装首推有道小龙虾,支持windows和mac电脑,点击此处下载

目前除了官方原版安装的,市面上各种小龙虾套壳鱼龙混杂且很多是小作坊带着利益性质或暗门。推荐大家如果是本地电脑安装,建议安装有道小龙虾。是我认为简单且最靠谱的一种方式!!!(相信磊子!相信网易!)

下图:1、配url和key 2、添加模型 3、联通测试 4、正式使用

接入飞书、钉钉、QQ等机器人

界面非常简单,ID和密钥等到各自平台去创建就行。不懂的,随便找个AI辅助你即可配置成功


方式2:(暂不推荐!)onboard向导内配置

经验证,此方式添加的模型,官方默认给的模型窗口上下文contextWindow只有4096(官方不知道咋想的目前qwen3-0.7b都不可能这么小). 而我们目前主流模型至少有200K,我设置的是256000. 4096严重过小,大约就几千个汉字,这天根本聊不下去。后续还需要去配置文件改contextWindow。除非您了解这个问题并指导怎么解决。否则建议不要用此方式. 直到官方修复该问题。(openclaw 2026.2.26版本发现bug)

1.openclaw onboard打开配置向导

到选择AI模型提供商这一步,选择【Custom Provider】.

2.设置API BASE URL

如果你的小龙虾部署在海外或者开了魔法,就用cloud, 否则推荐cn和com.

3.粘贴API KEY

从4All API网站购买的sk-开头格式的,叫做API KEY, 也叫KEY,也叫令牌。黏贴输入后回车

4.选择接口格式

99%都选第一个OpenAI格式,因为我们网站是聚合中转API,大部分模型都支持或兼容了这个格式。

Anthropic-compatible是Claude系列的格式,如果是gemini系列模型可以选择Unknown,输入 google-generative-ai

除非你知道自己在做什么,否则就选第一个就行了

5.录入可选模型

录入您购买的套餐内可用的模型,只能录入一个(这个比较坑,【方式5】腾讯云的那个简化配置腾讯云官方估计也是调了这个命令导致也只能配一个有点小坑)

6.自定义提供商名字

一般像我一样,输入 4allapi 即可,只是个代号。自此配置完毕后,后面选提供商和模型就认准 4allapi

Model alias是模型的别称,一般就不用再写了直接回车跳过

后续步骤全部跳过。

7.选择使用模型

如果你是第一次配置,那么openclaw会使用你刚才设置的第一个模型作为默认模型,不用做任何操作可以使用了。 如果你之前已经设置了某个官方或其他提供商的模型,那么需要重新openclaw onboard一次,这个时候提供商会出现 4allapi,按照顺序在最底下。接着选模型即可


方式3:打开web界面进行配置

1.1本地安装部署

一般首次安装配置向导完成的时候会显示web地址,格式为 http://ip:18789?token=xxxxxx

(如果非首次,忘了,使用命令openclaw dashboard 可以显示web地址)

如图,红线部分二选一复制1个到浏览器即可。笔者是在windows系统上的wsl里部署的大龙虾,所以127.0.0.1和localhost就能访问。如果

1.2云服务器等远程部署

由于openclaw的设计比较变态,为了安全起见不允许浏览器直接请求IP+端口来访问控制台界面。需要通过转发或ssh隧道来实现,参考 腾讯云提供的这篇教程 , 或者直接按照【云服务器配置文件配置】是最方便的!

如上图,Config分为from(可视化表单配置)和raw(JSON修改配置)2种,这里我们作为大龙虾玩家的必备素养肯定直接JSON配置啦,你也可以用可视化表单配置,效果一样的:

2.定义模型提供商及模型列表

找到models节点添加自定义模型提供商和模型,我这里添加了最近的三款大龙虾比较火的模型

{
 "models": {
 "mode": "replace",
 "providers": {
 "4allapi": {
 "baseUrl": "https://api.4allapi.com/v1", // 如果服务器在国外或者本地开了魔法建议用api.4allapi.cloud
 "apiKey": "sk-xxxxx", // 这里填API KEY
 "auth": "api-key",
 "api": "openai-completions", // 如果是claude系列模型,用anthropic-messages;如果gemini系列模型,用google-generative-ai。其他绝大部分模型就默认用openai-completions
 "authHeader": true,
 "models": [
 {
 "id": "kimi-k2.5",
 "name": "kimi-k2.5",
 "api": "openai-completions",
 "reasoning": false,
 "input": [
 "text"
 ],
 "cost": {
 "input": 0,
 "output": 0,
 "cacheRead": 0,
 "cacheWrite": 0
 },
 "contextWindow": 256000,
 "maxTokens": 8192
 },
 {
 "id": "qwen3.5-plus",
 "name": "qwen3.5-plus",
 "api": "openai-completions",
 "reasoning": false,
 "input": [
 "text"
 ],
 "cost": {
 "input": 0,
 "output": 0,
 "cacheRead": 0,
 "cacheWrite": 0
 },
 "contextWindow": 256000,
 "maxTokens": 8192
 },
 {
 "id": "minimax-m2.5",
 "name": "minimax-m2.5",
 "api": "openai-completions",
 "reasoning": false,
 "input": [
 "text"
 ],
 "cost": {
 "input": 0,
 "output": 0,
 "cacheRead": 0,
 "cacheWrite": 0
 },
 "contextWindow": 256000,
 "maxTokens": 8192
 }
 ]
 }
 }
 }
}
3.配置默认使用模型

找到agents节点,配置默认模型

{
 //前面其他配置........
 "agents": {
 "defaults": {
 "model": {
 "primary": "4allapi/kimi-k2.5" // 只需要改这里,你想用上面定义好的哪个模型,就把这里改掉
 },
 "models": {
 "4allapi/kimi-k2.5": {}
 },
 "workspace": "/root/.openclaw/workspace",
 "compaction": {
 "mode": "safeguard"
 },
 "maxConcurrent": 4,
 "subagents": {
 "maxConcurrent": 8
 }
 }
 }
 //后面其他配置.....
}
4.验证是否生效

回到chat界面,随便聊聊,有回复就说明已经配置生效啦。接下去你可以继续按照openclaw的各种教程去玩啦~


方式4:openclaw.json配置文件配置

这种方式最直接,建议有一定技术基础的同学或程序员朋友可以直接采用这种方式。

1.找到配置文件所在路径

Linux/MacOs/Wsl子系统:

echo $HOME/.openclaw

Windows CMD命令:

echo %USERPROFILE%\.openclaw

Windows PowerShell命令:

"$env:USERPROFILE\.openclaw"
2.编辑配置文件

此处我用vscode打开windows的Wsl子系统中的.openclaw文件夹和配置文件为例,大家也可以用用各种能格式化JSON的编辑器,或者vim大法来配置JSON文件。配置内容通【打开web界面进行配置】是一样的。

直接操作配置文件的优点太多了,我觉得最大的优点是你可以在.openclaw下通过重命名文件对openclaw.json进行多备份随时还原到任何一次配置!!!


方式5:云服务器配置文件配置

1)以腾讯云为例,登录云服务器。

2)文件管理器找到大龙虾openclaw的安装位置,找到openclaw.json文件进行编辑

这边篇幅有限只演示腾讯云的登录web terminal进行编辑的过程,其他云都是差不多的。如果是有技术基础,自己用finalshell、xshell等ssh远程到服务器进行修改效果一样,这边不再演示


方式6:腾讯云openclaw简化配置

1.找到自定义模型表单配置

2、配置提供商和模型

点击【添加并应用后】,刚才配的就显示在应用中就是成功了。

这种方式比较小白,但只要稍微仔细一点就会发现,这个方式有点蠢,还比较约束。因为只能配一个自定义模型,下次配另一个回覆盖前一个。并且和【云服务器配置文件配置配置】没有任何区别,本质上都是间接去修改openclaw.json文件


配置大模型API总结

大家仔细思考会发现,4All API API大模型接入openclaw其实就2步。 1、定义models, 也就是需要你自定义4allapi提供商以及其下的模型列表 2、在agents节点设置你现在需要使用的模型(必须在第1步中已经定义的模型)

3、tips:其实你可以通过直接把url、key、model直接告诉大龙虾让AI自己配置,当然此处有风险,除非你知道自己在做什么否则还是手动配置吧


三、配置进阶

1.配置多个agents

agents节点下,与defaults同级黏贴以下代码(只需按以下格式即可,配置多少个agent分别叫什么您自己决定)

"list": [
 {
 "id": "main",
 "default": true,
 "name": "个人助手",
 "workspace": "~/.openclaw/workspace"
 },
 {
 "id": "code",
 "name": "编程助手",
 "identity": {
 "name": "kimi code",
 "theme": "Coding assistant",
 "emoji": "💻"
 },
 "model": "4allapi/kimi-for-coding",
 "workspace": "~/.openclaw/workspace-code"
 }
]

保存后,就可以使用了。您也可以去web界面确认是否添加成功。效果如下:

顺带提一下,现在openclaw有中文界面更方便了。


2.定时任务单独设置agent

这里演示界面方式创建一个新的Job指定Agent, 根据定时任务的复杂度和功能,可以指定不同的Agent,相应的模型费率和消耗也会不同可以节省成本。

除了界面方式,也可以配置文件,或者直接对话让大龙虾自己创建指定Agent的Job, 方式很多不再赘述


四、安装教程(如果需要的话)

现在全网大龙虾安装教程铺天盖地,不过也确实参差不齐,如有必要的话也可以看一下我这篇文档。

Linux/Wsl/Mac 操作系统

curl -fsSL https://openclaw.ai/install.sh | bash

Windows 操作系统

在powershell 或 CMD 中输入以下命令(需要用超级管理员打开)

iwr -useb https://openclaw.ai/install.ps1 | iex

会开发的朋友可以在vscode或任意有终端的IDE中完成安装和配置。(个人喜欢这样做,敲命令和查看文件内容一体化)


步骤截图

1. 开始安装

2. 选择 QuickStart 按回车继续安装

3. AI模型提供商选择。

官方最推荐Claude, 由于这里的提供商都是各大官方平台,官方价格普遍较贵或者需要魔法翻出去才能使用增加使用难度,所以直接选择 Skip for now 跳过,后面直接配置使用4All API 聚合api平台, 如果你已经有列表中平台的API, 可以自行选择。

4. 选择模型

默认All providers直接回车。

如果你已经有列表中平台的API选择对应的模型系列。比如如果你上一步选了Moonshot AI(月之暗面),这里就要选他家的 kimi-coding

找到模型,如果你要接入4All API 或任意不在Openclaw提供的提供商列表家的模型,选择 Enter model manually

然后再回车进入下一步(等到安装完毕后再进行配置)

5. 选择Channel,Skills, Hooks

Channel都是国外的,直接跳过

Skills和Hooks也直接跳过,后面可以配

6. 打开Web 界面

把链接复制黏贴到浏览器后,就可以看到界面啦~

7. 选择 Open the Web UI 回车

安装完毕!!


4All API - 一站式AI大模型API聚合平台
官网: https://4allapi.com
API Base: https://api.4allapi.com