本项目定位为企业知识问答与决策辅助的 RAG(检索增强生成)引擎,目标是在保证答案可追溯的前提下,让大模型基于企业私有知识输出更准确、更稳定、更可解释的结果。
降低幻觉风险:回答必须来自可检索证据,而不是仅依赖模型参数记忆。
缩短知识到答案路径:把 PDF/文档中的信息结构化为“可检索资产”,支持快速问答。
提升复杂问题处理能力:通过查询分解、多路召回和重排,提高召回率与答案覆盖度。
支撑后续平台化演进:多数据源、多路由策略、可观测可评估的企业级 RAG 平台。
典型业务场景:
企业知识库问答(制度、流程、技术文档、培训资料)
研发知识助手(架构规范、故障排查、技术决策对比)
运营/客服知识检索(FAQ、工单经验、产品说明)
管理汇报辅助(跨文档信息整合与来源可追溯说明)
功能介绍:
支持多轮对话
数据读取与切分
向量化与索引构建
混合检索
重排
查询分解与策略路由
路由平台化
Multi-Query 并行召回 + 跨查询融合
双阶段生成(证据抽取 + 最终回答)
Step-Back 独立链路
路由模块基础能力
Token 级检索与优化
上下文压缩
检索与生成缓存体系
评估与观测体系
生产级治理能力
项目实现说明
总体技术架构
索引构建链路(离线)
文档读取 -> 文本切分 -> 向量化 -> FAISS 建索引 -> 本地持久化。
在线问答链路(实时)
用户问题 -> 查询策略路由/分解 -> 多路并行检索(向量+BM25) -> RRF 融合 -> CrossEncoder 重排 -> 证据抽取 -> 答案生成 -> 来源返回。
增强链路(复杂问题)
Step-Back:先抽象后细化,双路证据融合,增强系统级问题与多跳问题的回答质量。