梯度消失与梯度爆炸总结

匿名 (未验证) 提交于 2019-12-03 00:21:02

(vanishing gradient) (exploding gradient)

aturate,

(CNN)(RNN)

tanh

1

2

z = 1/(1 + np.exp(-np.dot(W, x))) #
dx = np.dot(W.T, z*(1-z)) # :
dW = np.outer(z*(1-z), x) # : W

    (long term dependencies)

        标签
        易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
        该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!