跳到主要内容

API 参数

本页提供 Knox Chat API 支持的所有参数的完整列表。

核心参数

参数名称类型默认值描述
modelStringNone要使用的模型 ID。如果未指定,将使用用户的默认设置。
messagesArray of ObjectsNone用于 chat completion 请求的消息数组。每条消息应包含 "role" 和 "content" 字段。
promptStringNone用于 text completion 请求的 prompt 文本。

共享参数

以下参数可用于 completion 和 chat completion 请求:

参数名称类型默认值描述
max_tokensIntegerNone生成的最大 token 数量(范围:[1, context_length))。
temperatureDouble1.0采样温度(范围:[0, 2])。较高的值会产生更多样化的结果。
top_pDouble1.0Top-p 采样值(范围:(0, 1])。控制模型考虑的词汇概率空间。
top_kIntegerNoneTop-k 采样值(范围:[1, Infinity))。仅考虑概率最高的 k 个 token。
streamBooleanfalse启用流式返回结果。
seedIntegerNone用于确定性输出的种子值。
frequency_penaltyDouble0.0频率惩罚(范围:[-2, 2])。降低频繁使用的 token 的出现概率。
presence_penaltyDouble0.0存在惩罚(范围:[-2, 2])。降低已出现 token 的出现概率。
repetition_penaltyDouble1.0重复惩罚(范围:(0, 2])。降低重复词语的出现概率。
logit_biasObjectNone从 token ID 到偏置值的映射,用于调整特定 token 的出现概率。
min_pDouble0.0最小概率阈值(范围:[0, 1])。过滤掉低于阈值的 token。
top_aDoubleNone替代 top 采样参数(范围:[0, 1])。
top_logprobsIntegerNone要返回的 top log 概率数量。

Knox Chat 特有参数

以下参数为 Knox Chat 特有:

参数名称类型默认值描述
modelsArray of StringsNone用于路由覆盖的备选模型列表。
providerObjectNone用于路由的 provider 偏好设置。
transformsArray of StringsNoneprompt 转换列表(仅限 Knox Chat)。
reasoningObjectNone模型推理/思考 token 的配置。
usageObjectNone是否在响应中包含使用量信息。

上下文长度限制

每个模型具有不同的上下文长度限制,这决定了输入和输出 token 的总数。您可以通过 /v1/models 端点查询模型列表,查看每个模型的 context_length 值。