欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 科技 > 能源 > 【LLM应用开发】RAG(检索增强生成)和 TAG(任务增强生成)

【LLM应用开发】RAG(检索增强生成)和 TAG(任务增强生成)

2025/5/24 12:52:15 来源:https://blog.csdn.net/weixin_68138311/article/details/148157976  浏览:    关键词:【LLM应用开发】RAG(检索增强生成)和 TAG(任务增强生成)

一、前言

  • RAG 和 TAG 是AI 应用中非常热门的两个概念:
    • RAG(检索增强生成)
    • TAG(任务增强生成)

二、RAG

  • 📌 全称:Retrieval-Augmented Generation(检索增强生成)
  • 🧠 一句话解释:
    • RAG 是一种结合 知识检索 和 大模型生成 的 AI 架构:
    • 它先从外部数据库中检索知识,再把这些信息喂给大语言模型(LLM)进行回答。
  • ✅ 举个例子:
    • 当你问AI:“OpenAI 是什么时候成立的?”
    • 系统流程如下:
    • 1.检索:从本地知识库或向量数据库找相关文本:“OpenAI 在2015 年成立,总部旧金山。”
    • 2.生成:将这段文本交给大语言模型,生成回答: “OpenAI 成立于 2015 年。”
  • 📌 关键点:模型不是靠“死记硬背”,而是靠“查资料再回答”。

三、TAG

  • 📌 全称(在 AI 场景下):Task-Augmented Generation(任务增强生成)
  • 有时也指 Tool-Augmented Generation(工具增强生成)
  • 🧠 一句话解释:
  • TAG 是一种让大模型通过调用外部工具/接口/子任务来提升回答能力的方式。
  • ✅ 举个例子:
    • 当你问AI:“今天北京的天气怎么样?”
    • 系统处理流程:
      • 1.模型识别这是一个“天气查询任务”。
      • 2.TAG 架构下的 Agent 会:调用天气 API,如 【https://api.weather.com/beijing】
    • 把返回的结果让模型生成自然语言回答:“今天北京晴天,气温在18-25度之间。”
  • 📌 关键点:模型本身不会预测天气,而是“调用工具来获取答案”。

四、RAG-Demo代码示例(本地知识检索 + LLM)

  • 🧩 用途:你有一堆文档,用户提问后,系统先在文档中找相关内容,再交给 LLM 回答。
  • 🧰 安装:
pip install openai faiss-cpu sentence-transformers
  • ✅ 示例代码(rag_demo.py):
import faiss
from sentence_transformers import SentenceTransformer
import openaiopenai.api_key = "your-api-key"# 模拟知识库
docs = ["OpenAI 是一家人工智能公司,成立于 2015 年,总部位于旧金山。","Python 是一种流行的编程语言,适合 AI 开发。","GPT 是一种生成式语言模型,支持问答、写作和代码生成。"
]# 文本向量化
model = SentenceTransformer('paraphrase-MiniLM-L6-v2')
doc_embeddings = model.encode(docs)# 建立向量索引
index = faiss.IndexFlatL2(len(doc_embeddings[0]))
index.add(doc_embeddings)def ask(question):q_vec = model.encode([question])_, I = index.search(q_vec, k=1)matched_doc = docs[I[0][0]]prompt = f"你是一个问答助手。参考以下资料回答问题:\n\n资料:{matched_doc}\n\n问题:{question}"res = openai.ChatCompletion.create(model="gpt-3.5-turbo",messages=[{"role": "user", "content": prompt}])return res['choices'][0]['message']['content']# 🧪 测试
print(ask("OpenAI 是哪年成立的?"))
  • 🧠 输出:OpenAI 成立于 2025年。
注:‘’ return pres[‘choices’][0][‘message’][‘content’] ''的作用
  • 作用:
    • 返回最终生成的回答文本(即 LLM 回复的那句话);
    • “把模型生成的回答拿出来”的标准写法。
  • 📦 背景:首先我们要明确OpenAI 的响应结构是什么样的?
  • 当调用:
openai.ChatCompletion.create(...)
  • LLM的返回结果是一个 JSON 字典结构,大致如下:
//json
{"id": "chatcmpl-123","object": "chat.completion","created": 1699999999,"model": "gpt-3.5-turbo","choices": [{"index": 0,"message": {"role": "assistant","content": "你好,我是你的 AI 助手。"   //最终要返回的回答结果},"finish_reason": "stop"}],"usage": {...}
}

因此我们需要使用该语句对最终的目标回答结果进行提取,具体的结构化流程如下:

代码片段意义
res模型完整响应结果(字典)
res['choices']所有生成候选结果(通常只有一个)
res['choices'][0]第一个生成结果
res['choices'][0]['message']聊天消息内容(含角色和回答)
res['choices'][0]['message']['content']✅ 模型生成的纯文本回答

五、TAG-Demo代码示例(调用接口 + LLM 回复)

  • 🧩 用途:
    • 提问一个任务型问题,系统调用工具(如 API),然后让 LLM 把结果转换成自然语言回答。
  • ✅ 示例代码(tag_demo.py):
import openai
import datetimeopenai.api_key = "your-api-key"# 模拟一个外部工具函数
def get_current_time(city):return f"{city} 当前时间是 {datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')}"def ask_with_tool(question):# 简单判断任务类型(可用 LLM 实现意图识别)if "时间" in question and "北京" in question:tool_result = get_current_time("北京")else:tool_result = "无法识别的任务"prompt = f"你是一个智能助手,请根据以下工具返回结果,用自然语言回答问题。\n\n问题:{question}\n工具结果:{tool_result}"res = openai.ChatCompletion.create(model="gpt-3.5-turbo",messages=[{"role": "user", "content": prompt}])return res['choices'][0]['message']['content']# 🧪 测试
print(ask_with_tool("现在北京的时间是多少?"))
  • 🧠 输出:2025年5月23日 11:26:00 。

五、总结

📌 RAG 和 TAG 的区分:

特性RAGTAG
全称Retrieval-Augmented GenerationTask/Tool-Augmented Generation
本质查知识执行任务 / 调工具
输入来源向量数据库、文本库API、数据库、插件、子模型等
应用场景知识问答、客服、RAG ChatBot智能助手、代码执行、天气查询等
举例“OpenAI 成立时间?” → 查文库再答“北京天气?” → 查 API 再答

📌 RAG 和 TAG 的对话处理流程:

项目RAG 示例TAG 示例
输入用户问题用户问题
中间检索匹配内容调用任务函数
输出文本回答文本回答
核心流程向量搜索 → 交给 LLM工具调用 → 交给 LLM

📌 一句话总结:RAG 是“查资料 + 回答”,而TAG 是“调用工具 + 回答”。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词