欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 科技 > 能源 > 【机器学习基础】激活函数

【机器学习基础】激活函数

2025/9/16 5:29:08 来源:https://blog.csdn.net/weixin_41838721/article/details/143149510  浏览:    关键词:【机器学习基础】激活函数

激活函数

  • 1. Sigmoid函数
  • 2. Tanh(双曲正切)函数
  • 3. ReLU函数
  • 4. Leaky ReLU函数

1. Sigmoid函数

在这里插入图片描述

  • 观察导数图像
  • 在我们深度学习里面,导数是为了求参数W和B,W和B是在我们模型model确定之后,找出一组最优的W和B,使我们那个模型输入的x,得出我们Y最近我们真实结果的一个Y
  • 导数函数图像,往两边走的话,它的导数越来越接近零。如果这样的情况出现的话,出现梯度消失。我们希望它的导数是一个平稳值,不要大也不要小
  • 值落在,无穷大的时候或者无穷小的时候,它的导数就接近于零,此时W和B就不能更新了,无法找到最优的W和B。你就是你不断找不找,每天也走一走个几米几米远,事实上W和B在几千米远之外

2. Tanh(双曲正切)函数

在这里插入图片描述

  • 和Sigmoid类似,优缺点也类似
  • 函数图像,值域在-1到1之间,Sigmoid在0~1之间
  • 导数图像,值域么在0到1之间,Sigmoid在0~0.25之间是吧
  • 比Sigmoid快,原因比Sigmoid0.25大,Sigmoid可能训练100轮,Tanh找50轮就够

3. ReLU函数

在这里插入图片描述

  • 分段函数,函数图像大于0为Z,小于0为0
  • 导数图像,大于0为1,小于0为0
  • 认为解决梯度消失不太严谨,因为小于0直接是0了,上两个是接近于0,直接神经元死亡。但落在大于0确实解决梯度消失,都等于1很平缓

4. Leaky ReLU函数

在这里插入图片描述

  • 对ReLU的改进
  • 函数图像大于0与ReLU相同,小于0为aZ,a≠0也≠1
  • 导数图像不为0了
  • 没有完美的激活函数,只有不合适的激活函数

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com