欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 房产 > 建筑 > 构建一个“论文检索 + 推理”知识库服务,支持用户上传 PDF/LATEX 源码后,秒级检索并获得基于内容的问答、摘要、引用等功能

构建一个“论文检索 + 推理”知识库服务,支持用户上传 PDF/LATEX 源码后,秒级检索并获得基于内容的问答、摘要、引用等功能

2025/9/27 3:40:38 来源:https://blog.csdn.net/weixin_46028606/article/details/148298109  浏览:    关键词:构建一个“论文检索 + 推理”知识库服务,支持用户上传 PDF/LATEX 源码后,秒级检索并获得基于内容的问答、摘要、引用等功能

文章目录

    • 1 总体目标 / Overall Goal
    • 2 数据管线 / Data Pipeline
    • 3 检索策略 / Retrieval Strategy
    • 4 服务切分 / Service Decomposition
    • 5 Agent & Prompt 设计 / Agent & Prompt
    • 6 核心功能 / Core Features
    • 7 评测与监控 / Evaluation & Monitoring
    • 8 面试亮点 / Interview Selling Points


1 总体目标 / Overall Goal

ZH:构建一个“论文检索 + 推理”知识库服务,支持用户上传 PDF/LATEX 源码后,秒级检索并获得基于内容的问答、摘要、引用等功能。
EN: Build a “paper-RAG” service where users upload PDF/LaTeX, then get sub-second search plus content-grounded QA, summaries, and citations.


2 数据管线 / Data Pipeline

阶段关键动作 (ZH)Key Steps (EN)
采集S3/GCS 触发 RAGFlow ingestTrigger ragflow ingest on S3/GCS events
解析① PDF→markdown ② LaTeX→AST→markdown;补 bib 引用Parse PDF→md; LaTeX→AST→md; keep bib entries
分块400–800 tokens;公式单独切块并转为 $\LaTeX$ 字符串Chunk 400–800 tokens; isolate formulas
元数据title, authors, year, doi, venue, sec_titleRich metadata for filters
嵌入MCP-Embed service;BGE-Large-zh-v1.5 for CN/EN;可热插入 MiniLM、Llama-EmbedMCP-Embed; hot-swappable embedders
索引Infinity DB:Dense + BM25,enable_hybrid=trueHybrid index in Infinity DB

3 检索策略 / Retrieval Strategy

ZH

  1. Stage-1 召回
    • BM25:速命中关键词(算法名、公式编号)。
    • Dense:Cosine k=40 捕获语义同义。
  2. 融合score = 0.3·BM25 + 0.7·Dense,动态调参。
  3. 精排:BGE-Reranker-v2;如 GPU 紧张降为 MiniLM-L6。

EN

  1. Recall via BM25 & dense cosine (k = 40).
  2. Score fusion with 0.3 / 0.7 weights (tunable).
  3. Re-rank top-50 using BGE-Reranker-v2 (fallback MiniLM).

4 服务切分 / Service Decomposition

微服务作用 (ZH)Latency SLAEndpoint
MCP-Embed文本→向量≤ 20 ms/embed
MCP-SearchHybrid 检索+精排≤ 60 ms/search
MCP-Memory用户长/短期 KV≤ 5 ms/memory/{uid}
MCP-Summarise论文长文摘要≤ 3 s (async)/summarise

5 Agent & Prompt 设计 / Agent & Prompt

SYSTEM: 你是论文助手,只能基于检索结果回答。
TOOLS:search_papers(query:str, top_k:int=20)cite(paper_id:str, span:str)
CONTEXT:
{retrieved_chunks}
QUESTION:
{user_query}
GUIDELINES:
1. 如需更多资料务必调用 search_papers。
2. 引用时用 (Author, Year) 并列出 span。
  • 多轮 Function Calling:模型看不到答案→触发 search_papers→检索结果以 function 消息注入→模型生成最终答复。
  • Memory 写回:把对话摘要、兴趣主题存 MCP-Memory,下轮预填。
  • Chunk 过长:先走 LLM map-reduce 压缩,保证 < 8 K tokens 上下文。

6 核心功能 / Core Features

  1. 语义搜索 / Semantic Search
  2. 基于内容的问答 (RAG-QA)
  3. 自动摘要 & 中英对照翻译
  4. 引用追踪 (click-to-source spans)
  5. 相似论文推荐(Dense Only 模式)

7 评测与监控 / Evaluation & Monitoring

指标工具频率
nDCG@10 (BEIR-SciDocs)nightly auto-eval每晚
Faithfulness (QAG)Prompt-ed Llama-3 judge每晚
Latency P95Prometheus + Grafana实时
GPU 使用率NVML exporter实时

8 面试亮点 / Interview Selling Points

ZH

  • 端到端视角:能说清数据→检索→Agent→监控整链路。
  • 可替换组件:Embed/Rerank/LLM 全部热插拔,体现工程弹性。
  • 效能权衡:给出双检索、融合权重、GPU 回退策略,说明你懂成本。

EN

  • E2E vision: articulate full pipeline from ingestion to monitoring.
  • Pluggability: swap embedders, rerankers and LLMs—design for change.
  • Cost-latency trade-offs: hybrid search, dynamic weights, GPU fallback.

总结 / Wrap-up
我会先用 RAGFlow 搭建混合索引,MCP 服务封装嵌入与检索,Agent 通过 Function Calling 串起工具,实现秒级论文检索及推理;再用监控与评测闭环调优。这样既满足现阶段功能,也给后续模型或业务升级留足弹性。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词