网络搜索
Knox Chat 通过两种方式提供内置的网络搜索功能:使用原生支持网络搜索的模型,或在任何受支持的模型后面追加 :online 变体后缀。
使用网络搜索
网络搜索模式(界面操作)
在 Knox Chat 界面中,点击聊天输入区的网络搜索按钮即可切换网络搜索模式。这会自动切换到 Perplexity Sonar Pro 模型(perplexity/sonar-pro),该模型提供带有来源引用的实时网络搜索结果。
:online 模型变体(API)
你可以在任何受支持的模型后面追加 :online 后缀来使用其网络搜索变体:
{
"model": "openai/gpt-5.2:online"
}
:online 后缀是 Knox Chat 支持的多种模型变体后缀之一(另有 :free、:beta、:extended、:thinking、:nitro 和 :floor)。这些变体由 Knox Chat 的智能模型路由系统解析,系统会为请求的模型选择最佳可用供应商通道。
直接使用 Perplexity 模型(API)
你也可以直接使用 Perplexity 搜索模型:
{
"model": "perplexity/sonar-pro"
}
这与界面中网络搜索切换使用的模型相同,最大输出 token 数支持到 65,536。
网络搜索的模型路由
Knox Chat 使用支持熔断器的多供应商路由系统。当你请求启用网络搜索的模型时:
- 供应商模型路由 — 系统检查
provider_models中哪些供应商提供所请求的模型 - 熔断器检查 — 因近期故障而熔断的供应商将被自动跳过
- 回退链 — 如果主供应商不可用,将按顺序尝试备用供应商
- 传统通道路由 — 对于不在供应商系统中的模型,使用标准的基于通道的路由
路由策略包括 performance(性能优先)、cost(成本优先)、balanced(均衡)和 round_robin(轮询),可按模型和用户进行配置。
解析网络搜索结果
网络搜索结果可通过 API 获取,Knox Chat 将其标准化为遵循 OpenAI Chat Completion Message 类型的 annotation 模式:
{
"message": {
"role": "assistant",
"content": "Here's the latest news I found: ...",
"annotations": [
{
"type": "url_citation",
"url_citation": {
"url": "https://www.example.com/web-search-result",
"title": "Title of the web search result",
"content": "Content of the web search result",
"start_index": 100,
"end_index": 200
}
}
]
}
}
此 annotation 格式在所有支持网络搜索的模型中保持一致,包括 Perplexity 等原生搜索模型以及使用 :online 变体的模型。
定价
网络搜索请求根据底层模型的 token 定价从你的 Knox Chat 余额中扣费。web_search 成本组件(如果适用于该模型)包含在模型的定价信息中,该信息与供应商数据同步。请在 Knox Chat 控制面板的模型详情中查看具体定价。