【笔记】论文阅读 | Learning to learn using gradient descent
论文信息:Hochreiter S, Younger A S, Conwell P R. Learning to learn using gradient descent[C]//International Conference on Artificial Neural Networks. Springer, Berlin, Heidelberg, 2001: 87-94. 博文作者: Veagau 编辑时间:2020年01月07日 本文是2011年ICANN的会议论文,第一作者是Sepp Hochreiter,LSTM的发明者之一。在论文中作者提出采用 梯度下降(gradient descent)的策略进行元学习(Learning to learn) ,对比以前采用进化算法进行元学习的策略相比,这种元学习策略能够适应拥有大量参数的大型模型,在后续的元学习经典模型算法中得到了广泛的采用。 传统的机器学习方法中的学习算法一般不会考虑以前的学习经验,即使这些经验能够像人类进行推理学习一样产生更好的表现,因此对于以往经验的利用的研究催生出了 知识迁移(Knowledge Transfer) 这一概念,而 元学习(meta-learning) 就可以纳入到知识迁移的范畴。广义的来讲,一个完整的元学习模型一般由两个部分组成: Meta-Learner与Learner 。其中Learner