搜索场景
先说结论
大模型在搜索场景中的作用,是把“检索文档”升级为“理解意图、检索证据、组织答案并保留可跳转来源”的组合式系统。
核心子场景
- 语义搜索:支持自然语言、多跳问题和同义表达。
- 查询理解:做意图识别、改写、拆解和补全。
- 结果摘要:从多来源结果生成 overview 或答案卡片。
- 探索式搜索:支持复杂主题调研、比较、规划和决策。
- 个性化搜索:结合历史行为、权限和企业上下文。
典型技术栈 / 实现模式
- 关键词召回 + 向量检索 + rerank 的混合架构。
- Query rewrite / decomposition / rerank。
- RAG with citations:先检索,后归纳,并保留出处。
- Search-augmented generation:大模型与搜索系统深度耦合。
- 结果页通常呈现为 overview + inline links + source cards。
设计时真正要权衡什么
- 直接答案 vs 导流网页:搜索必须兼顾“回答问题”和“连接 Web”。
- 召回广度 vs 结果精度:复杂查询需要广召回,但摘要更容易犯错。
- 延迟 vs 多跳推理:搜索产品对响应时间非常敏感。
- 中立排序 vs 个性化:个性化提升满意度,但会放大偏见和信息茧房。
- 开放互联网 vs 企业内网:企业搜索更强调权限与时效。
容易踩的坑
- 错误归纳网页内容,导致 AI Overview 式幻觉。
- 高置信错误回答压制了用户继续点源站的机会。
- 对新近信息、地方性信息和争议信息表现不稳。
- 给出答案却不给证据来源。
- 将 SEO 噪声或低质页面当作高质量来源。
工程落地时我会怎么做
- 默认采用“关键词 + 向量 + rerank”的混合检索。
- 事实密集问题优先返回带 citation 的答案。
- 对 YMYL、新闻、时效信息做更严格的 query routing。
- 区分事实问答、比较推荐和探索研究三种搜索模式。
- 监控 hallucination rate、source coverage、click-through to source 和 answer abandonment。
- 建立失败案例回放集,覆盖长尾查询和对抗性查询。
如果要对外讲,可以怎么概括
“搜索场景里,LLM 不应该替代检索系统,而应该站在检索系统之上做查询理解、结果组织和来源归纳。核心不是‘答得像不像’,而是‘来源够不够、归纳准不准、用户还能不能继续查证’。所以搜索里的大模型系统设计重点是 citations、query routing 和失败回放。”
最后记几条
- 搜索里的 LLM 是检索增强层,不是纯生成替代品。
- 混合检索通常比单一路径更稳。
- 高风险问题必须优先保留来源。
- 搜索产品要同时优化答案质量和回源体验。
- 长尾查询和时效信息最容易暴露系统短板。
参考资料
- AI Overviews update
- AI Overviews in Search
- Connecting to the web with AI Overviews
- AI Overviews October 2024 update
- Elastic: Beyond RAG Basics