RNN 的 Dropout 参数建议

谁说胖子不能爱 提交于 2019-12-30 14:34:36

原文链接

以下是从原文翻译的中文版本。
Srivastava等。 (2014年)将dropout应用于前馈神经网络和RBM的学习,并指出,在各种任务中,隐藏单元的丢失概率应为0.5,输入单元的丢失概率为0.2

参考:适用于RNN的Dropout综述

当我将0.5应用于隐藏层,将0.2应用于输入层时,效果很好。 但是在解码器中却不是这样。 在解码器中,我建议不要使用dropout

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!