🗒️如何理解RAG
2025-6-15
| 2025-6-15
字数 772阅读时长 2 分钟
password
Created time
Jun 15, 2025 08:23 AM
type
status
date
slug
summary
tags
category
icon
 
💡
RAG的重要性,一方面在于扩大了大模型的上下文;另一方面在于在大模型的知识外增加了知识库(而这个知识库还可以有企业的私有特性),第三个是减少了幻觉,增加可靠性。
 
RAG(Retrieval-Augmented Generation,检索增强生成)是一种人工智能技术框架,它将大规模语言模型(LLM)与外部知识源检索相结合,通过从知识库中检索相关信息来增强模型的生成能力,从而提供更准确、上下文丰富的响应。其本质是 InContext Learning(上下文学习),即“检索技术 + LLM提示”的组合。
Building vector databases, chunking documents, creating embeddings, and dealing with complex pipelines just to answer questions about your company docs? Well, I may have some news that might make you rethink everything.

RAG的最大特征

RAG的核心特征体现在其独特的工作机制和应用优势上:
  1. 动态知识整合(无需微调模型): RAG 能够实时访问外部知识库(如企业数据库或专业文献),并在不修改LLM底层参数的情况下动态加载和更新知识,实现“热装卸”(Hot-Swapping)。这一特性省略了模型微调的成本,可快速适配不同垂直领域的需求。
  1. 减少幻觉与增强可靠性: 通过检索真实外部数据,RAG 显著降低LLM的“幻觉”(Hallucination)问题,即生成虚构或错误信息。例如,在医疗场景中,RAG结合专业指南(如NCCN)可确保诊断建议的准确性。
  1. 数据隐私与安全隔离: RAG 访问的外部数据不参与LLM训练过程,仅用于检索阶段的上下文增强,有效保护敏感数据(如患者病历或企业专有信息)。这解决了通用大模型在垂直领域的数据安全顾虑。
  1. 灵活检索策略优化: 支持混合检索机制(如语义向量检索、知识图谱检索),并通过算法(如重排器FlagReranker)优化Top-K结果的匹配精度。例如,使用余弦相似度计算查询与文档块的相关性,提升响应质量。

实现原理简述

RAG 工作流程分为三步:
  1. 数据准备:清洗和结构化外部知识源。
  1. 分块与嵌入:将文本分割为Chunk(块),通过嵌入模型(如BAAI/bge-large-zh)转化为向量。
  1. 检索与生成:用户查询被嵌入后匹配知识库,检索结果与Prompt模板结合输入LLM生成最终响应。
此框架的核心价值在于弥补LLM的三大局限:知识时效性不足、幻觉风险及数据安全挑战。
 
notion image
  • LLM
  • AI
  • RAG:构建企业知识防火墙与智能引擎的方法AI Agents vs. Agentic AI
    Loading...