RAGClaw 是一款纯前端本地运行的 AI 知识库问答工具,所有文档、向量数据都存在你的浏览器里,不上传第三方服务器,隐私拉满。
核心亮点:
📄 多格式解析:支持 TXT/Markdown/PDF/DOCX,自动提取纯文本
🧩 智能分块:文档按段落 / 句号重叠分块,代码按函数 / 类边界精准切割
🔍 混合检索:通义千问向量模型 + BM25 关键词检索,RRF 融合排序,召回更准
🤖 AI 问答:qwen-turbo 大模型对话,支持多轮上下文,回答带原文溯源
📊 全本地存储:IndexedDB 持久化,数据不上传,隐私无风险
📱 响应式设计:支持亮色 / 暗色模式,移动端适配
适合开发者、学生、职场人用来做资料整理、论文阅读、文档问答,现在国内直接访问就能用👇
这是一个本人独立开发的rag知识库
qwen-turbo 作为生成模型
响应速度和成本通常比更大模型更友好,适合聊天式知识库问答。
兼容流式输出,前端体验更好(边生成边展示)。
中文场景表现稳定,和你的项目语境匹配度高。
text-embedding-v2 作为向量模型
用同一供应商(通义)做 embedding + generation,接口和行为更一致,集成复杂度低。
向量质量对中文检索够用,适合文档问答场景。
API 简单,便于在前端快速做批量向量化。
混合检索(向量相似度 + BM25 + RRF)
纯向量检索容易漏掉关键词精确匹配;纯关键词又不理解语义。
混合后兼顾“语义相关”和“关键术语命中”,召回更稳。
RRF 融合实现简单、鲁棒,不需要训练就能提升排序质量。
本地向量库(IndexedDB + Dexie)
纯前端就能运行,不依赖自建后端向量数据库,开发门槛低。
数据留在浏览器本地,隐私性更好。
适合 demo/中小规模知识库,体验启动快。
Vercel Serverless 代理(生产环境)
避免在浏览器直接暴露 API Key,安全性更好。
保留前端架构轻量的同时补齐密钥管理能力。
部署成本低,和 Vite 前端项目配合简单。