深度学习基础问题总结(一)
激活函数;梯度消失梯度爆炸问题;损失函数;反向传播; 文章目录 一、激活函数 1.什么是激活函数?激活函数是干什么的? 2.常见的激活函数 3.为啥relu用的比较多?relu的优点? 4.为啥sigmoid会有梯度显示现象? 二、梯度消失、梯度爆炸 1.梯度消失的例子 2.梯度消失与梯度爆炸 3.分析sigmoid梯度消失 4.解决梯度消失的方法 5.实验过程中怎么发现是否有梯度消失或者梯度爆炸? 三、损失函数 1.交叉熵 2.为啥人们选择交叉熵 3.回归问题损失函数 参考文献 一、激活函数 1.什么是激活函数?激活函数是干什么的? 激活函数是在神经网络每一层卷积或者全连接后的非线性函数部分。 她是干什么的?如果没有激活函数只有前面的全连接的话,相当于整个神经网络只有线性函数,每一层都是权重与输入的乘机,网络的拟合能力有限。正因为上面的原因,我们决定引入非线性函数作为激励函数,这样深层神经网络表达能力就更加强大(不再是输入的线性组合,而是几乎可以逼近任意函数)。 2.常见的激活函数 记住下图就可以了 3.为啥relu用的比较多?relu的优点? 1、sigmoid激活函数以及tanh激活函数容易产生 梯度消失现象 ; relu解决了梯度消失问题。 2、sigmoid计算量较大,而 relu计算量较小 。 速度快 3、relu会使得负数为0,使得网络具有一定稀疏性,提高网络表达能力