欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 教育 > 锐评 > [动手学习深度学习]13.丢弃法 Dropout

[动手学习深度学习]13.丢弃法 Dropout

2025/11/10 20:38:07 来源:https://blog.csdn.net/yuri5151/article/details/146155247  浏览:    关键词:[动手学习深度学习]13.丢弃法 Dropout

权重衰退是常见处理过拟合的方法
丢弃法比权重衰退效果要好

动机

  • 一个好的模型 需要第输入数据的扰动具有鲁棒性
    • 使用有噪音的数据等价于Tikhonov正则
    • 丢弃法:在层之间加入噪音

(所以丢弃法其实是一个正则)

无偏差的加入噪音

  • 对x加入噪音得到x’,我们希望
    E [ x ′ ] = x E[x'] = x E[x]=x
  • 丢弃法对每个元素进行如下扰动

使用

通常将丢弃法作用在隐藏全连接层的输出上
在这里插入图片描述
对隐藏层的每一个神经元做dropout,使每一个都有p概率变为0
即去掉一些权重(每次可能去掉的不一样)

在训练中使用

推理中的丢弃法

  • 正则项只在训练中使用:他们影响模型参数的更新
  • 在推理过程中,dropout直接返回输入
    h=dropout(h)
    
    这样也能保证确定性的输出
    每次随机的采样一些子神经网络

总结

  • 丢弃法将一些输出项随机置0来控制模型复杂度
  • 常作用在多层感知机的隐藏层输出上
  • 丢弃概率使控制模型复杂度的超参数

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词