新闻
模型
API
keyboard_arrow_down
读取器
读取URL或搜索为大模型提供更好的依据。
向量模型
世界一流的多模态多语言向量模型。
重排器
世界一流的重排器,最大限度地提高搜索相关性。
弹性推理服务
在 Elasticsearch 中原生运行 Jina 模型。
MCP terminal命令行articlellms.txtsmart_toy代理人data_object模式menu_book文档



登录
login
LLM-as-SERP 在哪些方面有用?
结论
技术博客
二月 27, 2025

大语言模型作为搜索结果页面:通过大语言模型生成搜索引擎结果页面

这个想法要么极其聪明,要么极其愚蠢——没有中间地带。
Han Xiao
Han Xiao • 5 分钟的读取量
LLM as SERP
Large language model as search result page
LLMSERP

尝试这个交互式演示,看看你的网站在 LLM SERP 中是如何呈现的。

自从 RAG 出现以来,使用 LLM 改进搜索已成为一种趋势。从 Perplexity 到 DeepSearch 和 DeepResearch,将搜索引擎结果注入生成过程的理念已成为事实标准。许多用户也表示他们不再像以前那样经常使用 Google,认为其经典的分页设计乏味、令人不知所措或繁琐。相反,他们已经习惯于聊天式搜索界面中问答式结果的高精确度和召回率,这表明这种设计理念可能是未来的发展方向。

但如果 LLM 本身就是搜索引擎呢?

如果你可以像使用 Google 一样探索 LLM 中嵌入的知识呢?分页、链接和一切 - 就像你熟悉的过去那样。如果你不确定我的意思,先看看下面的演示。

0:00
/0:10

这些链接、标题和摘要完全由 LLM 生成。你可以访问 https://jina.ai/llm-serp-demo 自己尝试一些查询!

在提出关于幻觉的担忧之前,让我们先解释为什么这个想法有一些价值:LLM 是在海量的网络知识库上训练的。像 DeepSeek-R1、GPT-4、Claude-3.7 和 Gemini-2.0 这样的模型已经在来自公共互联网的数万亿个 token 上进行了训练。粗略估计,领先模型使用了不到 1% 到约 5% 的高质量、可公开访问的网络文本进行训练。

如果你认为这个数字似乎太小,考虑这个比较:如果我们用 Google 的索引作为基准(代表世界上 100% 的用户可访问数据),那么 Bing 的索引大约是 Google 的 30-50%。百度覆盖约 5-10%,Yandex 覆盖 3-5%。Brave Search 索引不到 1%。因此,如果一个 LLM 在 1-5% 的高质量公共数据上训练,它可能等同于一个不错的小型搜索引擎可以提供的相同数据量。

由于这些模型已经有效地"记住"了这些网络数据,我们只需要以一种能"激活"它们记忆的方式进行提示,让它们能够像搜索引擎一样运作,并生成类似搜索引擎结果页面(SERP)的结果。

所以是的,幻觉是一个挑战,但随着每一次迭代模型能力的提升,我们可以合理地期待这个问题会得到缓解。在 X 上,每当新模型发布时,人们都热衷于从头开始生成 SVG,希望每个版本都能比上一个版本产生更好的插图。这个搜索引擎的想法也遵循类似的期望,即 LLM 对数字世界理解的逐步改进。

Binyuan Hui (Qwen 模型的核心开发者之一)展示 qwen-2.5-max 一次性绘制猪的 SVG 的能力。

知识截止日期是另一个限制。搜索引擎应该返回接近实时的信息,但由于 LLM 权重在训练后被冻结,它们无法提供超出截止日期的准确信息。通常,查询离这个截止日期越近,出现幻觉的可能性就越大。因为较旧的信息可能被更频繁地引用和改述,可能增加了它们在训练数据中的权重。(这假设信息是均匀加权的;突发新闻可能会获得不成比例的关注,而不考虑时效性。)然而,这个限制恰恰定义了这种方法最有用的地方——对于在模型知识时间范围内的信息。

tagLLM-as-SERP 在哪些方面有用?

在 DeepSearch/RAG 或任何搜索基础系统中,一个核心挑战是确定问题是需要外部信息还是可以从模型的知识中回答。当前系统通常使用基于提示的路由,指令如:

- For greetings, casual conversation, or general knowledge questions, answer directly without references.
- For all other questions, provide a verified answer with external knowledge. Each reference must include exactQuote and url.

这种方法在两个方向都会失败 - 有时会触发不必要的搜索,有时又会错过关键的信息需求。特别是对于较新的推理模型,在生成过程中期之前,通常不明显是否需要外部数据。

如果我们直接进行搜索呢?我们可以同时调用一个真实的搜索 API 和一个 LLM-as-search 系统。这样就不需要提前做路由决策,而是将其移到下游,在那里我们有实际的结果可以比较 - 来自真实搜索的最新数据、模型训练截止日期内的知识,以及可能的一些错误信息。

最后的推理步骤可以识别不一致性,并根据时效性、可靠性和结果间的共识来权衡各个来源——这些我们不需要显式编码,因为这本就是 LLM 擅长的领域。我们还可以访问搜索结果中的每个 URL(例如使用 Jina Reader)来进一步验证来源。在实际应用中,这个验证步骤总是必要的;无论是真实还是伪造的搜索引擎,你都不应该仅仅依赖搜索引擎的摘录。

tag结论

通过使用 LLM-as-SERP,我们将"这是否在模型的知识范围内?"这一二元问题转变为一个更稳健的证据权衡过程。

我们提供了一个演示平台以及由我们托管的 API 端点供你试验。您也可以将其集成到自己的 DeepSearch/DeepResearch 实现中,亲身体验其改进效果。

GitHub - jina-ai/node-serp: LLMs-as-SERPs
LLMs-as-SERPs. Contribute to jina-ai/node-serp development by creating an account on GitHub.
GitHubjina-ai

该 API 模拟了一个完整的 SERP 端点,您可以在其中定义结果数量、分页、国家、语言等。您可以在 GitHub 上找到它的实现。我们期待听到您对这种有趣方法的反馈。

类别:
技术博客
rss_feed

更多新闻
三月 11, 2026 • 7 分钟的读取量
从多模态大模型中引导音频向量模型
Han Xiao
Abstract illustration of a sound wave or heartbeat, formed by blue, orange, and gray dots on a white background.
三月 06, 2026 • 6 分钟的读取量
通过原始数值识别向量模型
Han Xiao
Fingerprint illustration made from numbers, showcasing digital and high-tech design on a light background.
九月 09, 2025 • 11 分钟的读取量
Llama.cpp 和 GGUF 中的多模态向量模型
Andrei Ungureanu
Alex C-G
Cartoon llama in the center of a white background, emitting laser-like beams from its eyes. The illustration creates a playfu
办公室
location_on
加利福尼亚州桑尼维尔
710 Lakeway Dr, Ste 200, 桑尼维尔, 加州 94085, 美国
location_on
德国柏林
Prinzessinnenstraße 19-20,10969 柏林,德国
搜索底座
读取器
向量模型
重排器
弹性推理服务
获取 Jina API 密钥
速率限制
API 状态
公司
关于我们
联系销售
新闻
实习生项目
下载 Jina 标志
open_in_new
下载 Elastic 徽标
open_in_new
条款
安全
条款及条件
隐私
管理 Cookie
email
Elastic Jina AI © 2020-2026.