大模型API怎么接入?从零开始的完整教程(附代码)
什么是大模型API
如果你还没接触过大模型 API,可以把它想象成"点外卖":你打开手机下单(发送请求),告诉餐厅你要什么菜(传入 prompt),餐厅做好后把饭送到你手上(API 返回结果)。你不需要自己买食材、架锅灶,只要一个下单入口就行。
大模型 API 也是一样的道理。你不需要自己买 GPU、训练模型、部署推理服务,只需要通过一个 HTTP 接口发送文本请求,API 就会返回 AI 生成的结果。这意味着任何一个会写代码的开发者,哪怕只有一台最普通的笔记本电脑,也能调用千亿参数大模型的能力。
目前主流的大模型 API 都遵循类似的调用模式:你发送一个包含对话消息的 JSON 请求,API 返回模型生成的回复。其中最广泛使用的协议是 OpenAI 的 Chat Completions 格式,国内很多服务商也兼容这个协议,包括 ClawBrain API。
5步上手:从零到跑通
第1步:注册账号,获取 API Key
不管你选哪家大模型服务商,第一步都是注册账号并获取 API Key。API Key 就是你的身份凭证,类似于银行卡号,每次调用 API 时都需要带上它来证明你是谁。
以 ClawBrain 为例,注册后进入控制台,在"API 密钥"页面点击"创建密钥"即可获得。请务必保管好你的 Key,不要上传到 GitHub 等公开仓库。
第2步:安装 Python SDK
绝大多数大模型 API 都支持用 openai 这个 Python 库来调用(因为大家都在兼容 OpenAI 协议)。安装只需要一行命令:
pip install openai
如果你用的是国内镜像,可以加上 -i https://pypi.tuna.tsinghua.edu.cn/simple 加速下载。
第3步:写第一个请求
下面是一段完整可运行的 Python 代码,调用 ClawBrain API 完成一次对话:
from openai import OpenAI
# 初始化客户端,指向 ClawBrain API
client = OpenAI(
base_url="https://api.clawbrain.dev/v1",
api_key="your-clawbrain-key" # 替换为你的真实 Key
)
# 发送对话请求
response = client.chat.completions.create(
model="auto", # 智能适配,自动选最优模型
messages=[
{"role": "system", "content": "你是一个友好的AI助手。"},
{"role": "user", "content": "用一句话解释什么是API"}
]
)
# 打印回复
print(response.choices[0].message.content)
把这段代码保存为 test_api.py,替换 api_key 为你的真实 Key,运行 python test_api.py,你应该能在几秒内看到 AI 的回复。
第4步:流式输出
上面的代码会等模型生成完所有内容后一次性返回。如果你想像 ChatGPT 那样"打字机效果"实时显示,需要用流式输出(streaming):
from openai import OpenAI
client = OpenAI(
base_url="https://api.clawbrain.dev/v1",
api_key="your-clawbrain-key"
)
# 开启流式输出
stream = client.chat.completions.create(
model="auto",
messages=[{"role": "user", "content": "写一首关于编程的短诗"}],
stream=True # 关键参数
)
# 逐块打印
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)
print() # 换行
流式输出的原理是:API 不再等生成完毕才响应,而是边生成边返回。每返回一小段文本(chunk),你的代码就打印一次,视觉效果就是"一个字一个字蹦出来"。
第5步:用 curl 测试
如果你不想写 Python 代码,也可以直接用 curl 命令在终端里测试:
curl https://api.clawbrain.dev/v1/chat/completions \
-H "Authorization: Bearer your-clawbrain-key" \
-H "Content-Type: application/json" \
-d '{
"model": "auto",
"messages": [{"role": "user", "content": "你好,请自我介绍"}]
}'
curl 非常适合快速验证 API 是否可用、Key 是否正确、网络是否通畅。
常见错误及解决方法
401 Authentication Error(认证失败)
这是最常见的错误,99% 的原因是 API Key 不正确。检查以下几点:
- Key 有没有复制完整(前后不要有空格)
- Key 有没有过期或被禁用
base_url是否指向了正确的服务商地址- 请求头中的
Authorization格式是否正确(Bearer后面有一个空格)
429 Rate Limit(限流)
当你短时间内发送了太多请求,API 会返回 429 错误。解决方案:
- 在代码中加入重试逻辑,遇到 429 时等待几秒后重试
- 使用指数退避策略(第一次等 1 秒,第二次等 2 秒,第三次等 4 秒)
- 如果是生产环境,联系服务商提升限流配额
import time
from openai import OpenAI, RateLimitError
client = OpenAI(
base_url="https://api.clawbrain.dev/v1",
api_key="your-clawbrain-key"
)
def call_with_retry(messages, max_retries=3):
for attempt in range(max_retries):
try:
return client.chat.completions.create(
model="auto",
messages=messages
)
except RateLimitError:
wait = 2 ** attempt # 指数退避
print(f"限流,等待 {wait} 秒后重试...")
time.sleep(wait)
raise Exception("重试次数用完,请稍后再试")
超时处理
大模型生成长文本时可能需要较长时间。建议设置合理的超时时间:
client = OpenAI(
base_url="https://api.clawbrain.dev/v1",
api_key="your-clawbrain-key",
timeout=60.0 # 60秒超时
)
如果经常超时,可以考虑:缩短 prompt 或限制 max_tokens;使用流式输出(流式模式下首 token 返回很快);选用响应更快的模型档位(如 flash)。
进阶技巧
使用系统消息控制输出风格
system 角色的消息用来设定 AI 的行为规范。比如你想让 AI 用 JSON 格式回复:
messages = [
{"role": "system", "content": "你是一个数据分析助手。始终用JSON格式回复,包含analysis和conclusion两个字段。"},
{"role": "user", "content": "分析一下2026年国内AI市场趋势"}
]
控制输出长度
通过 max_tokens 参数可以限制回复长度,避免生成过长内容导致浪费 token:
response = client.chat.completions.create(
model="auto",
messages=messages,
max_tokens=500 # 最多生成500个token
)
调节创造力
temperature 参数控制输出的随机性:0 表示确定性输出(适合代码生成),1 表示较高随机性(适合创意写作),默认通常是 0.7。
总结
接入大模型 API 远没有想象中复杂。核心就是三件事:获取 Key、安装 SDK、发送请求。掌握了基本调用后,再逐步学习流式输出、错误处理、参数调优,就能在自己的产品中稳定使用 AI 能力了。
如果你不想操心选模型、处理容错这些事情,ClawBrain API 是一个省心的选择——兼容 OpenAI 协议、智能适配自动选最优模型、内置智能容错,让你专注于业务逻辑本身。