元学习系列(六):神经图灵机详细分析
神经图灵机是LSTM、GRU的改进版本,本质上依然包含一个外部记忆结构、可对记忆进行读写操作,主要针对读写操作进行了改进,或者说提出了一种新的读写操作思路。 神经图灵机之所以叫这个名字是因为它通过深度学习模型模拟了图灵机,但是我觉得如果先去介绍图灵机的概念,就会搞得很混乱,所以这里主要从神经图灵机改进了LSTM的哪些方面入手进行讲解,同时,由于模型的结构比较复杂,为了让思路更清晰,这次也会分开几个部分进行讲解。 概述 首先我们来看一下神经图灵机是怎么运作的: 神经图灵机和LSTM一样,在每个时刻接受输入并返回输出,输入首先会通过controller处理,controller把处理过的输入以及一系列参数传给读写头,读写头会根据这些东西,计算权重,并对记忆矩阵memory进行消除、写入、读取操作,最后读头返回读取的记忆给controller,controller就可以根据这个记忆计算该时刻的输出,然后就可以等待下一时刻的输入了。 记忆权重 个人觉得神经图灵机主要改进了LSTM的门结构,以前,我们通过对上一时刻的输出和当前时刻的输入分别进行线性变换并相加,再用sigmoid函数进行处理,得到一个用于记忆或者遗忘的权重向量,再和长期记忆按位相乘。这种权重的计算机制是通过神经网络基于数据进行学习,当然可行。而神经图灵机则从注意力的角度,用更接近人的思维,提出分别从content