3分钟接入龙虾API:从注册到跑通的完整教程

2026-04-14 龙虾API 接入教程 OpenClaw
CB
ClawBrain AI ClawBrain 技术团队

接入只需3步

接入 龙虾API(ClawBrain API)是你能找到的最简单的大模型 API 接入流程。因为它 100% 兼容 OpenAI 协议,所以如果你已有任何基于 OpenAI SDK 的代码,整个迁移过程只需要改两行配置。

第1步:注册并获取 API Key

  1. 访问 ClawBrain 控制台
  2. 使用微信扫码或手机号注册(无需海外信用卡)
  3. 进入控制台后,在"API 密钥"页面点击"创建密钥"
  4. 复制生成的 Key 并妥善保管

注册即可获得每天 50 次免费调用额度,无需绑卡,当天可用。

第2步:选择接入方式

龙虾API 支持多种接入方式,选最适合你的场景即可:

第3步:发送第一个请求

改一行 base_urlapi_key,就完成了。下面是各种接入方式的具体代码。

方式一:OpenClaw 零代码接入

如果你想把龙虾API 的 AI 能力接入微信群、企业微信、飞书或钉钉,最简单的方式是通过 OpenClaw Agent

在已经部署好 OpenClaw 的环境中,只需要安装 ClawBrain 增强插件:

clawhub install clawbrain-boost

安装后,OpenClaw 的所有 AI 对话就会自动走龙虾API 的智能适配,获得记忆系统、智能容错等增强能力。不需要改任何代码,不需要改配置文件。

注意:安装插件后不需要修改 OpenClaw 的其他配置。如果你之前有自定义的 compaction.mode 等设置,保持不动即可。

方式二:Python 接入

这是最常用的接入方式。你只需要安装 openai 库,然后改两行代码。

安装依赖

pip install openai

基础调用

from openai import OpenAI

client = OpenAI(
    base_url="https://api.clawbrain.dev/v1",  # 龙虾API地址
    api_key="your-clawbrain-key"               # 你的Key
)

response = client.chat.completions.create(
    model="auto",  # 智能适配,自动选最优模型
    messages=[
        {"role": "system", "content": "你是一个专业的AI助手。"},
        {"role": "user", "content": "介绍一下Python的装饰器"}
    ]
)

print(response.choices[0].message.content)

如果你之前的代码是调用 OpenAI 的,只需要把 base_urlhttps://api.openai.com/v1 改成 https://api.clawbrain.dev/v1,把 api_key 换成龙虾API 的 Key,其他代码完全不用动。

流式输出

对于聊天界面等需要实时显示的场景,使用流式输出:

from openai import OpenAI

client = OpenAI(
    base_url="https://api.clawbrain.dev/v1",
    api_key="your-clawbrain-key"
)

stream = client.chat.completions.create(
    model="auto",
    messages=[{"role": "user", "content": "用Python写一个快速排序"}],
    stream=True
)

for chunk in stream:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end="", flush=True)

print()

指定模型档位

除了 auto(智能适配),你也可以手动指定模型档位:

# 极速档 - 简单任务,响应最快
response = client.chat.completions.create(model="flash", messages=messages)

# 专业档 - 日常使用
response = client.chat.completions.create(model="pro", messages=messages)

# 智能档 - 自动选择(推荐)
response = client.chat.completions.create(model="auto", messages=messages)

# 旗舰档 - 最高质量
response = client.chat.completions.create(model="max", messages=messages)

方式三:curl 接入

用 curl 可以在任何环境下快速测试,不需要安装任何依赖:

curl https://api.clawbrain.dev/v1/chat/completions \
  -H "Authorization: Bearer your-clawbrain-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "auto",
    "messages": [
      {"role": "user", "content": "你好,请介绍一下你自己"}
    ]
  }'

curl 流式输出

curl https://api.clawbrain.dev/v1/chat/completions \
  -H "Authorization: Bearer your-clawbrain-key" \
  -H "Content-Type: application/json" \
  -N \
  -d '{
    "model": "auto",
    "stream": true,
    "messages": [
      {"role": "user", "content": "写一首关于春天的诗"}
    ]
  }'

方式四:Claude Code 接入

如果你在使用 Claude Code 进行编程,可以配置龙虾API 作为后端,获得智能适配和记忆增强能力。

在 Claude Code 的配置文件中添加:

{
  "apiProvider": "custom",
  "apiBaseUrl": "https://api.clawbrain.dev/v1",
  "apiKey": "your-clawbrain-key",
  "model": "max"
}

配置完成后,Claude Code 的所有 AI 请求都会通过龙虾API,享受智能适配和智能容错能力。

方式五:LangChain / LlamaIndex 接入

如果你使用 LangChain 或 LlamaIndex 开发 AI 应用,接入方式同样简单:

# LangChain 接入
from langchain_openai import ChatOpenAI

llm = ChatOpenAI(
    base_url="https://api.clawbrain.dev/v1",
    api_key="your-clawbrain-key",
    model="auto"
)

response = llm.invoke("用100字总结一下量子计算")
print(response.content)
# LlamaIndex 接入
from llama_index.llms.openai import OpenAI

llm = OpenAI(
    api_base="https://api.clawbrain.dev/v1",
    api_key="your-clawbrain-key",
    model="auto"
)

response = llm.complete("解释一下什么是RAG")
print(response)

常见问题 FAQ

Q: 龙虾API 和 OpenAI API 完全兼容吗?

是的,龙虾API 100% 兼容 OpenAI 的 Chat Completions 协议,包括流式输出、function calling、JSON mode 等全部功能。任何能调用 OpenAI API 的工具和框架都可以无缝使用龙虾API。

Q: 免费额度用完了怎么办?

免费额度每天自动刷新(北京时间 0 点)。如果当天用完了,可以在控制台升级为付费套餐,或者等第二天刷新。付费用户的额度更大,且不受每日上限限制。

Q: model 参数可以填什么?

支持 4 个档位:flash(极速)、pro(专业)、auto(智能适配,推荐)、max(旗舰)。详见龙虾API 介绍

Q: 需要在代码里处理容错逻辑吗?

不需要。龙虾API 内置了三级容错机制,模型故障时会自动切换到备选模型,整个过程对你的代码透明。当然,为了更健壮的生产环境,建议加上基本的超时和重试处理。

Q: 记忆系统需要额外配置吗?

记忆系统默认开启。龙虾API 会自动提取对话中的关键信息并在后续请求中智能注入。如果你不需要记忆功能,可以在请求中通过参数关闭。

Q: 数据安全如何保障?

所有数据传输使用 TLS 加密,记忆数据按用户隔离存储,不会用于模型训练。企业用户可以选择私有化部署方案。

3分钟跑通龙虾API

兼容 OpenAI 协议,现有代码零改动。智能适配、记忆系统、三级容错开箱即用。每天 50 次免费调用。

免费注册 →

下一步

跑通基础调用后,建议进一步了解:

最简单的 AI API 接入方案

龙虾API,改两行代码就能用上 10+ 个大模型的能力。

免费开始 →