开始使用
在线体验
为帮助用户更直观地理解和测试大语言模型的行为,我们提供了灵活的在线体验界面。用户可以通过调整一系列参数,精细控制模型的生成逻辑、内容风格与响应结构,获得更具针对性的输出结果。
响应格式
用户可选择两种模式:
- 自定义 JSON 响应结构:通过指定 JSON Schema,引导模型按预设结构生成输出,适用于结构化任务或 API 联动场景;
- 自由生成模式:允许模型根据上下文自由组织回答,更适合开放式问答、内容创作等应用。
系统提示词
通过设置系统提示词(System Prompt),用户可以设定模型的“身份”与行为语境。例如输入“你是一个专业的旅游规划师”,模型将以该角色视角进行答复,提升回答的角色一致性与上下文连贯性。
参数配置
在线体验界面支持以下核心参数调整:
- max_tokens(最大生成长度):设置生成文本的最大 token 数。较低值可加快响应速度,较高值适用于复杂长文本生成。
- temperature(温度):控制输出的创造性与随机性。数值越高,模型越倾向于生成发散、丰富的表达;数值越低,则更趋于保守与确定性,适合精确任务。
- top_p(核采样):动态调整每一步生成的备选 token 范围,有助于提高生成文本的多样性与自然流畅度。推荐与 temperature 配合调节。
- top_k(最大候选数):限制每次生成时最多从前 K 个最高概率的 token 中选择,有助于提升效率并减少无效输出。
- min_p(最小概率阈值):替代 top_p 和 top_k 的参数之一,用于过滤生成时概率过低的词,适合对输出精准度有要求的任务。
- presence_penalty(出现惩罚):鼓励模型在输出中引入新的主题。设置为正值时,模型更可能跳出当前话题,扩展新内容。
- frequency_penalty(频率惩罚):用于抑制重复词汇的生成。正值会减少重复 token 的概率,有助于提高回答的内容新颖性。
- repetition_penalty(重复惩罚):进一步减少模型陷入循环或过度重复提示词的风险,常用于控制文本生成的鲁棒性。
使用建议
- 文本创作类任务:可提高 temperature、top_p 与 presence_penalty,提升表达的多样性与想象力;
- 结构化任务与工具调用:建议设置固定 JSON schema,使用较低的 temperature 与 top_k,确保输出稳定一致;
- 交互体验测试:通过对比不同参数组合效果,观察模型在生成风格、信息密度、上下文理解方面的差异,快速迭代 prompt 设计。
如您希望在调用 API 时复现在线体验中的效果,请参考平台文档中的对应参数字段说明。