API 文档
Responses API
推理模型专用 API 端点
概述
Responses API 是专为推理模型设计的端点,支持 OpenAI 的 o 系列模型和其他推理类模型。
POST https://api.smai.ai/v1/responses必须使用此端点的模型
以下模型必须使用 Responses API: - gpt-5.2-pro - o3-pro - o3-mini -
o1-pro - o1-mini - 其他推理类模型
与 Chat Completions 的区别
| 特性 | Chat Completions | Responses API |
|---|---|---|
| 端点 | /v1/chat/completions | /v1/responses |
| 适用模型 | 通用模型 | 推理模型 |
| 推理过程 | 不可见 | 可选择显示 |
| 响应格式 | 标准格式 | 扩展格式 |
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| model | string | 是 | 推理模型名称 |
| input | string/array | 是 | 输入内容 |
| reasoning | object | 否 | 推理配置 |
| max_output_tokens | integer | 否 | 最大输出 Token |
| stream | boolean | 否 | 是否流式输出 |
请求示例
curl https://api.smai.ai/v1/responses \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-your-api-key" \
-d '{
"model": "o3-pro",
"input": "解释量子纠缠的原理",
"reasoning": {
"effort": "high"
}
}'推理配置
reasoning 参数用于控制推理行为:
{
"reasoning": {
"effort": "high", // 推理努力程度: low, medium, high
"summary": "auto" // 是否返回推理摘要: auto, always, never
}
}effort 参数
| 值 | 说明 | 适用场景 |
|---|---|---|
low | 快速推理 | 简单问题 |
medium | 平衡模式 | 一般问题 |
high | 深度推理 | 复杂问题 |
响应格式
{
"id": "resp-xxx",
"object": "response",
"created": 1234567890,
"model": "o3-pro",
"output": [
{
"type": "message",
"content": "量子纠缠是一种量子力学现象..."
}
],
"usage": {
"input_tokens": 10,
"output_tokens": 500,
"reasoning_tokens": 1000,
"total_tokens": 1510
}
}支持的模型
| 模型 | 说明 |
|---|---|
gpt-5.2-pro | OpenAI 最新推理模型 |
o3-pro | OpenAI o3 专业版 |
o3-mini | OpenAI o3 轻量版 |
o1-pro | OpenAI o1 专业版 |
o1-mini | OpenAI o1 轻量版 |
注意事项
Token 消耗
推理模型会消耗额外的 reasoning_tokens,这部分也会计入费用。
响应时间
推理模型的响应时间通常比普通模型更长,特别是在 effort: high 模式下。
