欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 教育 > 幼教 > 【Datawhale组队学习】模型减肥秘籍:模型压缩技术5——知识蒸馏

【Datawhale组队学习】模型减肥秘籍:模型压缩技术5——知识蒸馏

2025/9/21 17:46:37 来源:https://blog.csdn.net/weixin_46319888/article/details/144015042  浏览:    关键词:【Datawhale组队学习】模型减肥秘籍:模型压缩技术5——知识蒸馏

![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/bcc4b145b6d74f07b3bd8e96c0a1b5e1.png

概念理解

通过将一个复杂且大型的教师模型中的知识传递给一个较小的学生模型,从而在保持模型性能的前提下,减少模型的计算复杂度和内存占用。知识蒸馏的概念最早由Geoffrey Hinton及其同事在2015年提出,并在他们的论文《Distilling the Knowledge in a Neural Network》中被详细阐述。Hinton的这篇开山之作为知识蒸馏奠定了理论基础,并在深度学习领域引起了广泛关注和应用。
在这篇论文中,Hinton提出了软标签。大多数传统的神经网络训练都是基于“硬目标”,也就是标签数据的类别,例如一个图像是“猫”还是“狗”。但Hinton认为输出的概率分布比硬标签蕴含更多的知识。例如,如果教师模型对图像的预测是“90%是猫,10%是狗”,这个信息要比直接给出“猫”这个标签更有价值,因为它表明模型认为“狗”也是有可能的,只是可能性较低。这些信息能够帮助学生模型学到更丰富的表示,而不仅仅是正确答案。
在这里插入图片描述蒸馏损失函数是论文的核心之一。学生模型在训练过程中,不仅使用标准的交叉熵损失来学习训练集的硬标签,还使用教师模型的软目标来优化损失函数。具体来说,Hinton引入了一个温度参数T来软化教师模型的输出,这样可以让概率分布中的每一个类别都变得更加接近,从而让学生模型更好地学习类别之间的相对关系。当温度T较高时,输出的概率分布更加平滑,更多信息被传递给学生模型。

在这里插入图片描述

损失函数的组成包括两个部分:一部分是使用标准硬标签的交叉熵损失,另一部分是基于教师模型软目标的交叉熵损失。整个训练过程是通过优化这两部分损失的加权和来完成的。教师模型的输出作为“暗示”信息帮助学生模型捕捉更细致的知识。
在这里插入图片描述

Hinton的知识蒸馏方法在这篇论文中展示了非常显著的效果。通过将一个复杂的深度网络(例如大型卷积神经网络或多个模型集成体)作为教师模型,再将其知识传递给一个小型的学生模型,学生模型的性能通常可以接近甚至达到教师模型的水平,但训练和推理的计算开销大大降低。这使得知识蒸馏特别适合资源有限的场景,如嵌入式设备、移动设备、实时推理等应用。

实际应用

DistilBERT 是通过对 BERT 使用知识蒸馏方法得到的。在训练 DistilBERT 的过程中,一个预训练好的 BERT 模型作为教师模型,而 DistilBERT 作为学生模型,学生模型通过学习教师模型的知识来获得类似的语言理解能力。
在这里插入图片描述
DistilBERT 相比原始 BERT 采用了更精简的架构,它将 BERT 的 Transformer 层从 12 层减少到 6 层,使得模型的复杂度减少了一半。虽然 Transformer 层减少了,但通过知识蒸馏的方式,DistilBERT 保留了大部分的语言理解能力,其性能通常达到原始 BERT 的 97% 左右,而推理速度却提升了近 60%。

参考文献

  1. https://www.datawhale.cn/learn/content/68/965
  2. https://www.dropbox.com/scl/fi/jh071zqee27yr7bkiy3ll/lec09.pdf?rlkey=50yvvxrcnpsg7krci2o91kbc1&e=1&dl=0
  3. Hinton, G., Vinyals, O., & Dean, J. (2015). Distilling the Knowledge in a Neural Network. arXiv preprint arXiv:1503.02531.

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词