一、前言
- RAG 和 TAG 是AI 应用中非常热门的两个概念:
- RAG(检索增强生成)
- TAG(任务增强生成)
二、RAG
- 📌 全称:Retrieval-Augmented Generation(检索增强生成)
- 🧠 一句话解释:
- RAG 是一种结合 知识检索 和 大模型生成 的 AI 架构:
- 它先从外部数据库中检索知识,再把这些信息喂给大语言模型(LLM)进行回答。
- ✅ 举个例子:
- 当你问AI:“OpenAI 是什么时候成立的?”
- 系统流程如下:
- 1.检索:从本地知识库或向量数据库找相关文本:“OpenAI 在2015 年成立,总部旧金山。”
- 2.生成:将这段文本交给大语言模型,生成回答: “OpenAI 成立于 2015 年。”
- 📌 关键点:模型不是靠“死记硬背”,而是靠“查资料再回答”。
三、TAG
- 📌 全称(在 AI 场景下):Task-Augmented Generation(任务增强生成)
- 有时也指 Tool-Augmented Generation(工具增强生成)
- 🧠 一句话解释:
- TAG 是一种让大模型通过调用外部工具/接口/子任务来提升回答能力的方式。
- ✅ 举个例子:
- 当你问AI:“今天北京的天气怎么样?”
- 系统处理流程:
- 1.模型识别这是一个“天气查询任务”。
- 2.TAG 架构下的 Agent 会:调用天气 API,如 【https://api.weather.com/beijing】
- 把返回的结果让模型生成自然语言回答:“今天北京晴天,气温在18-25度之间。”
- 📌 关键点:模型本身不会预测天气,而是“调用工具来获取答案”。
四、RAG-Demo代码示例(本地知识检索 + LLM)
- 🧩 用途:你有一堆文档,用户提问后,系统先在文档中找相关内容,再交给 LLM 回答。
- 🧰 安装:
pip install openai faiss-cpu sentence-transformers
- ✅ 示例代码(rag_demo.py):
import faiss
from sentence_transformers import SentenceTransformer
import openaiopenai.api_key = "your-api-key"# 模拟知识库
docs = ["OpenAI 是一家人工智能公司,成立于 2015 年,总部位于旧金山。","Python 是一种流行的编程语言,适合 AI 开发。","GPT 是一种生成式语言模型,支持问答、写作和代码生成。"
]# 文本向量化
model = SentenceTransformer('paraphrase-MiniLM-L6-v2')
doc_embeddings = model.encode(docs)# 建立向量索引
index = faiss.IndexFlatL2(len(doc_embeddings[0]))
index.add(doc_embeddings)def ask(question):q_vec = model.encode([question])_, I = index.search(q_vec, k=1)matched_doc = docs[I[0][0]]prompt = f"你是一个问答助手。参考以下资料回答问题:\n\n资料:{matched_doc}\n\n问题:{question}"res = openai.ChatCompletion.create(model="gpt-3.5-turbo",messages=[{"role": "user", "content": prompt}])return res['choices'][0]['message']['content']# 🧪 测试
print(ask("OpenAI 是哪年成立的?"))
- 🧠 输出:OpenAI 成立于 2025年。
注:‘’ return pres[‘choices’][0][‘message’][‘content’] ''的作用
- 作用:
- 返回最终生成的回答文本(即 LLM 回复的那句话);
- “把模型生成的回答拿出来”的标准写法。
- 📦 背景:首先我们要明确OpenAI 的响应结构是什么样的?
- 当调用:
openai.ChatCompletion.create(...)
- LLM的返回结果是一个 JSON 字典结构,大致如下:
//json
{"id": "chatcmpl-123","object": "chat.completion","created": 1699999999,"model": "gpt-3.5-turbo","choices": [{"index": 0,"message": {"role": "assistant","content": "你好,我是你的 AI 助手。" //最终要返回的回答结果},"finish_reason": "stop"}],"usage": {...}
}
因此我们需要使用该语句对最终的目标回答结果进行提取,具体的结构化流程如下:
代码片段 | 意义 |
---|---|
res | 模型完整响应结果(字典) |
res['choices'] | 所有生成候选结果(通常只有一个) |
res['choices'][0] | 第一个生成结果 |
res['choices'][0]['message'] | 聊天消息内容(含角色和回答) |
res['choices'][0]['message']['content'] | ✅ 模型生成的纯文本回答 |
五、TAG-Demo代码示例(调用接口 + LLM 回复)
- 🧩 用途:
- 提问一个任务型问题,系统调用工具(如 API),然后让 LLM 把结果转换成自然语言回答。
- ✅ 示例代码(tag_demo.py):
import openai
import datetimeopenai.api_key = "your-api-key"# 模拟一个外部工具函数
def get_current_time(city):return f"{city} 当前时间是 {datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')}"def ask_with_tool(question):# 简单判断任务类型(可用 LLM 实现意图识别)if "时间" in question and "北京" in question:tool_result = get_current_time("北京")else:tool_result = "无法识别的任务"prompt = f"你是一个智能助手,请根据以下工具返回结果,用自然语言回答问题。\n\n问题:{question}\n工具结果:{tool_result}"res = openai.ChatCompletion.create(model="gpt-3.5-turbo",messages=[{"role": "user", "content": prompt}])return res['choices'][0]['message']['content']# 🧪 测试
print(ask_with_tool("现在北京的时间是多少?"))
- 🧠 输出:2025年5月23日 11:26:00 。
五、总结
📌 RAG 和 TAG 的区分:
特性 | RAG | TAG |
---|---|---|
全称 | Retrieval-Augmented Generation | Task/Tool-Augmented Generation |
本质 | 查知识 | 执行任务 / 调工具 |
输入来源 | 向量数据库、文本库 | API、数据库、插件、子模型等 |
应用场景 | 知识问答、客服、RAG ChatBot | 智能助手、代码执行、天气查询等 |
举例 | “OpenAI 成立时间?” → 查文库再答 | “北京天气?” → 查 API 再答 |
📌 RAG 和 TAG 的对话处理流程:
项目 | RAG 示例 | TAG 示例 |
---|---|---|
输入 | 用户问题 | 用户问题 |
中间 | 检索匹配内容 | 调用任务函数 |
输出 | 文本回答 | 文本回答 |
核心流程 | 向量搜索 → 交给 LLM | 工具调用 → 交给 LLM |
📌 一句话总结:RAG 是“查资料 + 回答”,而TAG 是“调用工具 + 回答”。