引言
本文开始,进入到大模型微调领域。
之前一直在做 RAG 的相关内容,RAG 能够直接通过预先解析好的知识库,增强模型回答的输出质量。
然而,当知识库较大时,RAG 会显著增加检索搜索的时间,导致回答反应迟钝;并且,RAG的方案并不适合在线大模型的调用,因为它会将相关内容一起作为模型的输入内容,会造成token成本上升。
模型微调则没有 RAG 的相关缺点,通过训练微调,可以直接将知识内容“注入”到模型的参数本身中,问答时无需再经历检索。
但是,模型微调不像 RAG 那样比较直观,需要微调数据集整理、高配置训练环境和丰富的炼丹技巧三个必要条件。
其实,模型微调和 RAG 本质上是不冲突的。对于多数不变的知识(如规章制度、历史材料等)完全可以通过微调直接喂给大模型;而对于变化的知识(如新闻等)来不及再去整理微调,则可以通过 RAG 的方式对模型知识进行有效补充,同时可以减少 RAG 知识库的容量,让检索压力更小。
作为系列开篇,本文先在 windows 操作系统上,跑通LLaMA-Factory
的模型微调过程,为后续探索奠定基础。
LLaMA-Factory 简介
经调研,用于大模型微调的框架根据github上的关注度,主要有以下产品:LLaMA-Factory
(52.4k)、unsloth
(40.6k)、DeepSpeed
(38.9k)、peft
(18.8k)和axolotl
(9.6k)。
其中,LLaMA-Factory
不仅热度最高,而且还是国人维护,自然成为首选。
LLaMA-Factory支持直接通过命令行或 Web UI去微调模型,无需编写代码,其支持各种模型LLaMA、DeepSeek、Qwen等多种模型微调,集成了各种训练主流方法。
仓库地址:https://github.com/hiyouga/LLaMA-Factory
项目文档:https://llamafactory.readthedocs.io/zh-cn/latest/
安装
下面开始安装,下载项目
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
使用uv安装环境依赖
uv sync --extra torch --extra metrics --prerelease=allow
检测pytorch是否可用
python -c "import torch; print(torch.cuda.is_available())"
windows用户会输出False,需要卸载重新安装gpu版本。
uv pip uninstall torch torchvision
uv pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
再次检测,此时输出True,则表明安装成功。
LLaMA-Factory 版本校验:
llamafactory-cli version
输出以下内容,表明安装成功。
数据集准备
官方文档中介绍了指令监督微调、预训练、多模态等多种类型的数据集。
本文只关注第一种指令监督微调数据集,LLaMA Factory中支持Alpaca
和ShareGPT
。
1. Alpaca 数据集格式
Alpaca 格式的数据集结构示例如下:
{"instruction": "计算这些物品的总费用。 ","input": "输入:汽车 - $3000,衣服 - $100,书 - $20。","output": "汽车、衣服和书的总费用为 $3000 + $100 + $20 = $3120。"
},
其中instruction
对应人类指令,input
对应人类输入,output
对应模型回答。
在微调过程中,instruction
和input
会拼接起来输入到模型中。
Alpaca 格式可以进一步支持系统提示词system
和对话历史history
,完整的结构如下:
[{"instruction": "人类指令(必填)","input": "人类输入(选填)","output": "模型回答(必填)","system": "系统提示词(选填)","history": [["第一轮指令(选填)", "第一轮回答(选填)"],["第二轮指令(选填)", "第二轮回答(选填)"]]}
]
2. ShareGPT 数据集格式
相比 alpaca 格式的数据集, sharegpt 格式支持 更多的角色种类,例如 human、gpt、observation、function 等等。它们构成一个对象列表呈现在 conversations 列中,示例如下:
{"conversations": [{"from": "human","value": "你好,我出生于1990年5月15日。你能告诉我我今天几岁了吗?"},{"from": "function_call","value": "{\"name\": \"calculate_age\", \"arguments\": {\"birthdate\": \"1990-05-15\"}}"},{"from": "observation","value": "{\"age\": 31}"},{"from": "gpt","value": "根据我的计算,你今天31岁了。"}],"tools": "[{\"name\": \"calculate_age\", \"description\": \"根据出生日期计算年龄\", \"parameters\": {\"type\": \"object\", \"properties\": {\"birthdate\": {\"type\": \"string\", \"description\": \"出生日期以YYYY-MM-DD格式表示\"}}, \"required\": [\"birthdate\"]}}]"
}
该结构中,human 和 observation 必须出现在奇数位置,gpt 和 function 必须出现在偶数位置,完整结构格式如下:
[{"conversations": [{"from": "human","value": "人类指令"},{"from": "function_call","value": "工具参数"},{"from": "observation","value": "工具结果"},{"from": "gpt","value": "模型回答"}],"system": "系统提示词(选填)","tools": "工具描述(选填)"}
]
具体使用方式
1. 启动应用
通过以下命令,启动webui界面:
llamafactory-cli webui
浏览器访问http://localhost:7860
,进入到主界面。
2. 下载模型
在主界面中,选择模型后,默认会从huggingface上去下载模型,在国内网络情况下,建议先从 modelscope 中下载好模型。
以下载Llama-3.2-1B-Instruct
为例,先安装modelscope依赖:
uv pip install modelscope
下载模型,到本地目录models
文件夹:
modelscope download --model LLM-Research/Llama-3.2-1B-Instruct --local_dir ./models
下载完后,就可以通过指定模型的绝对路径,去进行模型加载。
3. 数据集准备
在项目的data
文件夹中,自带了不少数据集示例。
前端界面中,可选择加载自带的数据集示例,并进行显示查看。
4. 开始训练
选择完数据集后,就可以点击“开始”按钮,直接开始训练。
实测发现,Llama-3.2-1B
模型全量训练,会报显存,因此,调整为Freeze
模式,即冻结部分参数,默认只训练最后两层,具体可通过可训练层数
进行控制。
训练时,下方会展示训练日志和进度。
损失曲线会实时更新,默认是训练三个epoch,损失不断降低,说明训练有效果。
默认每100步会保存一个checkpoint,最终的结果会在saves文件夹中自动生成。
5. 模型测试
训练完之后,可以进行模型评估,不过在训练时,验证集比例默认为0,未划分验证集,评估就不会太有意义。
此外,可通过chat模块加载模型,进行问答测试。
下面测试了一下微调前后的模型回答效果(该问题在上面的数据集截图中有被训练):
结果发现,微调后有一点优化后的感觉,但效果不是特别明显,可能和模型参数和训练轮次太少都有关系。之后将在服务器上训练更大的模型,并增加训练轮次,再测试效果。
总结
在初次体验模型微调的流程后,发现模型微调这一块的基础工具已经做的相当成熟,已经无需再编写代码去进行微调。
但是,LLaMA-Factory
可选参数非常多,不同参数的选取对结果肯定会有很大影响,如果调参变成了代码之上更高一层的学问。初次踏入这个领域,让我想到了牛顿“沙滩上的孩童”比喻,里面有太多值得继续深挖探索的研究点,像是小孩看见玩具那样令人兴奋。