跳到主要内容

网络搜索

Knox Chat 通过两种方式提供内置的网络搜索功能:使用原生支持网络搜索的模型,或在任何受支持的模型后面追加 :online 变体后缀。

使用网络搜索

网络搜索模式(界面操作)

在 Knox Chat 界面中,点击聊天输入区的网络搜索按钮即可切换网络搜索模式。这会自动切换到 Perplexity Sonar Pro 模型(perplexity/sonar-pro),该模型提供带有来源引用的实时网络搜索结果。

:online 模型变体(API)

你可以在任何受支持的模型后面追加 :online 后缀来使用其网络搜索变体:

{
"model": "openai/gpt-5.2:online"
}

:online 后缀是 Knox Chat 支持的多种模型变体后缀之一(另有 :free:beta:extended:thinking:nitro:floor)。这些变体由 Knox Chat 的智能模型路由系统解析,系统会为请求的模型选择最佳可用供应商通道。

直接使用 Perplexity 模型(API)

你也可以直接使用 Perplexity 搜索模型:

{
"model": "perplexity/sonar-pro"
}

这与界面中网络搜索切换使用的模型相同,最大输出 token 数支持到 65,536。

网络搜索的模型路由

Knox Chat 使用支持熔断器的多供应商路由系统。当你请求启用网络搜索的模型时:

  1. 供应商模型路由 — 系统检查 provider_models 中哪些供应商提供所请求的模型
  2. 熔断器检查 — 因近期故障而熔断的供应商将被自动跳过
  3. 回退链 — 如果主供应商不可用,将按顺序尝试备用供应商
  4. 传统通道路由 — 对于不在供应商系统中的模型,使用标准的基于通道的路由

路由策略包括 performance(性能优先)、cost(成本优先)、balanced(均衡)和 round_robin(轮询),可按模型和用户进行配置。

解析网络搜索结果

网络搜索结果可通过 API 获取,Knox Chat 将其标准化为遵循 OpenAI Chat Completion Message 类型的 annotation 模式:

{
"message": {
"role": "assistant",
"content": "Here's the latest news I found: ...",
"annotations": [
{
"type": "url_citation",
"url_citation": {
"url": "https://www.example.com/web-search-result",
"title": "Title of the web search result",
"content": "Content of the web search result",
"start_index": 100,
"end_index": 200
}
}
]
}
}

此 annotation 格式在所有支持网络搜索的模型中保持一致,包括 Perplexity 等原生搜索模型以及使用 :online 变体的模型。

定价

网络搜索请求根据底层模型的 token 定价从你的 Knox Chat 余额中扣费。web_search 成本组件(如果适用于该模型)包含在模型的定价信息中,该信息与供应商数据同步。请在 Knox Chat 控制面板的模型详情中查看具体定价。