LSTM&GRU原理及pytroch实现

◇◆丶佛笑我妖孽 提交于 2019-12-05 09:04:11

1.LSTM&GRU的原理

https://blog.csdn.net/jerr__y/article/details/58598296

https://github.com/starflyyy/Gated-Recurrent-Unit-GRU

2.多层LSTM

pytorch里有一个num_layers,是指参数共享之后网络也有不同cell,即相当于隐含层的数目,是指cell串联和mlp很像,即为StackedRNN具体如下图

 

3.双向RNN

待继续了解https://blog.csdn.net/jojozhangju/article/details/51982254

4.lstm&rnn的实现和改造

源码分析https://zhuanlan.zhihu.com/p/32103001,可以加上自己改写RNNcellhttps://github.com/huyingxi/new-LSTM-Cell

一种实现,但其实现的多层lstm不太对https://github.com/emadRad/lstm-gru-pytorch/

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!