大语言模型API
推理模型
功能介绍
推理模型是针对复杂问题解决和推理任务优化的高级语言模型,通过输出详细的推理步骤(思维链)提升问题求解的准确性。
典型应用场景
- 复杂问题解决:适用于需要逐步推导、明确逻辑步骤的场景,例如数学、科学推理。
- 决策支持系统:提供详细推理过程支持决策分析,帮助理解决策背后的逻辑。
- 教育和培训:帮助用户学习和理解复杂知识,提供详细的推导过程。
安装与准备
在使用推理模型前,请确保已安装最新版本的 OpenAI SDK:
API 调用方法
通过调用 /chat/completions
接口使用推理模型。
请求参数说明
max_tokens
:设置模型输出的最大 token 数。temperature
:建议设置为 0.5 至 0.7(推荐 0.6)以平衡输出的创造性与逻辑性。top_p
:建议设置为 0.95。
示例请求代码
流式输出请求
非流式输出请求
上下文管理
模型返回的推理内容不会自动拼接到下一轮对话中,用户需手动管理对话历史:
支持模型列表
目前支持的主要推理模型包括但不限于:
DeepSeek 系列
deepseek/deepseek-r1-0528
deepseek/deepseek-r1-0528-qwen3-8b
deepseek/deepseek-r1-turbo
deepseek/deepseek-r1-distill-qwen-32b
deepseek/deepseek-r1-distill-qwen-14b
deepseek/deepseek-r1/community
Qwen 系列
qwen/qwen3-235b-a22b-fp8
qwen/qwen3-30b-a3b-fp8
qwen/qwen3-32b-fp8
qwen/qwen3-8b-fp8
qwen/qwen3-4b-fp8
智谱系列
thudm/glm-z1-32b-0414
thudm/glm-z1-rumination-32b-0414
thudm/glm-z1-9b-0414
Minimaxai 系列
minimaxai/minimax-m1-80k
请访问平台模型列表获取最新的详细信息。
计费方式
- 根据输入和输出的 token 数进行计费。
- 具体计费标准及转换规则,请在模型详情页查询。
注意事项与最佳实践
- 不要在
system
消息中添加推理指令,应在user
消息中直接明确指令。 - 在数学问题中明确指出要求,例如:“请逐步推理并明确最终答案。”
- 为避免模型跳过推理环节,建议强制模型在输出前添加换行符。