李宏毅教授Attention课程笔记总结

匿名 (未验证) 提交于 2019-12-02 23:52:01

Generation

可以用RNN生成文本、图片(grid lstm)、视频、手写字、语音

*grid lstm

Conditional generation:不是随机产生,而是有情境地产生

应用:image caption/machine translation/chat-bot

Encoder和Decoder的参数可以一样或者不一样,当参数一样时,参数比较少,比较不容易过拟合,但是如果有足够的数据,那么也可以参数不一样

这也就是seq2seq

双层encoder记录过去历史

Attention:是一种动态的conditional generation

每个时间点关注不同的信息,可以不用将所有信息都放在一个vector中

Match函数可以自己设计

z1

c0

输入到RNN后hidden layer的输出

attention还可以应用于语音识别,但效果不如传统的HMM方法

attention应用于image caption,将attention应用于flatten前的一组vector上

Memory Network

在memory上做attention

传统memory network中attention和抽取信息是对同一组vector

升级版:将attention和抽取信息分开,将同一个句子变成两组不同的vector,分别进行

Hopping:将抽取的信息传给q可以使得机器反复思考,得到更好的效果

Neural Turing Machine

根据match score修改存在memory中的内容

其中由

这三个vector决定attention和修改memory

k1

决定attention,e1

清空memory的值,a1

写memory的值

文章来源: https://blog.csdn.net/weixin_42825220/article/details/97297713
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!