深度学习-一篇入门

【介绍】一篇入门之-ReLu激活函数及其导数

作者 : 老饼 发表日期 : 2022-06-26 14:02:29 更新日期 : 2024-12-23 09:03:47
本站原创文章,转载请说明来自《老饼讲解-深度学习》www.bbbdata.com



ReLu函数是深度学习中最常用的激活函数,它在大于0时为自身,小于0时等于0

本文讲解ReLu函数的表达式、图像,以及ReLu函数的导数、导数图像,并进一步展示它的优势

通过本文,可以快速了解ReLu函数是什么,包括ReLu的特点、图像、导数、作为激活函数的优势等等






    01. ReLu激活函数是什么     





本节介绍ReLu函数的表达式、图像以及ReLu的导数





       ReLu激活函数       


ReLu函数是深度学习中最常用的激活函数,它可以缓解梯度消失、梯度爆炸问题
 ReLu激活函数的公式如下:
 
         
 或者:    
  
 ReLu函数的图象如下:
 ReLu的函数图像
可以看到,ReLu函数在时为0,在时为自身
这个特性对应的生物思想就是,让神经元要么干活,要么不干活,也就是让神经元稀疏化
 相比于传统的S型函数,ReLU函数的计算简单高效‌,它不涉及复杂的指数运算,计算速度更快







       ReLu激活函数的导数       


ReLu激活函数的导数是分段函数,且非连续函数
 ReLu激活函数的导数如下:
    
 ReLu函数的导数图象如下:
 ReLu的导函数图像
可以看到,ReLu的导数只有两个值:0和1(在负轴为0,在正轴为1)
因此,ReLu函数的导数(梯度)非常稳定,这种稳定性可以有效避免梯度消失问题
 没有很严谨的理论证明ReLu函数为什么能大大改善梯度爆炸/消失问题
但自从把前馈神经网络的激活函数从S型函数改为ReLu后,深层网络的训练效果就是好很多
因此在深度学习中,基本都是使用ReLu函数作为激活函数,主要原因就是"它在实践中的效果就是有效"







好了,以上就是深度学习中的ReLu激活函数的表达式、图像与导数了~









 End 





联系老饼