keras调参经验

本小妞迷上赌 提交于 2019-11-30 22:41:44

调参技巧

  • 层叠LSTM的层时 尽量保持两个隐藏层个数一致 收敛的快的多
  • 两层LSTM比一层好很多
  • 激活函数很重要 relu通常效果比较好
  • 学习率太大(0.02),记得要是0.001数量级的学习率,否则直接不收敛,因此学习率不要太大,越小越好

  • 正则化参数
    • L1正则化效果很差
    • L2正则化 一般是0.01左右
    • 这个参数影响不太 而且容易拖累模型训练速度

优化器

from tensorflow.keras import optimizers  
常用optimizers.Adam ,Nadam  学习率的设置在0.001数量级
标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!