1. 介绍
2. 网络
如果你觉得这篇文章看起来稍微还有些吃力,或者想要系统地学习人工智能,那么推荐你去看床长人工智能教程。非常棒的大神之作,教程不仅通俗易懂,而且很风趣幽默。点击这里可以查看教程。
3. 人工神经网络
3.1 练习
4. 后向传播算法
值将会根据上次调整后权重与网络误差的依赖程度进行调整,这种依赖程度是
关于
的导数。每次调整的步长还依赖于
。也就是说对误差影响大的权值相比于影响小的,每次调整的值也比较大。公式(5)循环计算直到找到满意的权值才停止(误差很小了)。如果你对导数不理解,没关系,你可以把它看着一个函数,并且在下文我将立即用线性代数来代替。如果你理解了,请自己写出来然后和我这儿的做个比较。如果你还想详细的理解关于后向传播算法的推导过程,你可以根据我后面的推荐书籍进行查找,毕竟这已经超出了这份材料的范围。
)。我们首先需要计算误差是怎么依赖于来自上层的输入的,而和权值无关。这很简单,我们只须把公式(7),(8),(9)里的
用
代替。但是也需要知道网路的误差是怎么随
而变化的。因此:4.1 练习
如果你懂得编程,实现这个后向传播算法,至少能用来训练下面的网络。要是你能实现后向传播的通用算法(随意几层、每层有任意个神经元、任意个训练序列),好好干吧。
如果你还不懂得编程,但是知道运用一些辅助工具(比如Matlab或者Mathematica),那么应用里面定义好的函数找到下面网络的合适的权值吧,这些函数能让你的工作变得轻松一点。
再如果你一点电脑经验都没有的话,还是通过手一步一步的算吧。
这里的网络在输入层有三个神经元,隐藏层有两个,输出层有三个。一般情况下训练序列是很大的,但在这个练习里,我们只用一个训练序列。当输入为(1,0.25,-0.5)时,输出应该为(1,-1,0)。记住,你应该以随机的权值开始训练。
5. 进一步阅读
- Rojas, R. (1966). Neural Networks: A systematical Introduction. Springer, Berlin.
- Rumelhart, D. and J. McClelland (1986). Parallel Distributed Processing. MIT Press, Cambridge, Mass.
- Bar-Yam, Y. (1997). Dynamics of Complex Systems,Addison-Wesley.
- Kauffman, S. (1993). Origins of Order, Oxford University Press.
6. 在线资源
7. 参考书目
- Bar-Yam, Y. (1997). Dynamics of Complex Systems. Addison-Wesley.
- Kauffman, S. (1993). Origins of Order, Oxford University Press.
- McCulloch, W. and W. Pitts (1943). A Logical Calculus of the Ideas Immanent in Nervous Activity.Bulletin of Mathematical Biophysics, Vol. 5, pp. 115-133.
- Rojas, R. (1996). Neural Networks: A Systematic Introduction. Springer, Berlin.
- Rumelhart, D. and J. McClelland (1986). Parallel Distributed Processing. MIT Press, Cambridge,
- Mass.Young, D.Formal Computational Skills Course Notes.
1. 介绍
2. 网络
如果你觉得这篇文章看起来稍微还有些吃力,或者想要系统地学习人工智能,那么推荐你去看床长人工智能教程。非常棒的大神之作,教程不仅通俗易懂,而且很风趣幽默。点击这里可以查看教程。
3. 人工神经网络
3.1 练习
4. 后向传播算法
值将会根据上次调整后权重与网络误差的依赖程度进行调整,这种依赖程度是
关于
的导数。每次调整的步长还依赖于
。也就是说对误差影响大的权值相比于影响小的,每次调整的值也比较大。公式(5)循环计算直到找到满意的权值才停止(误差很小了)。如果你对导数不理解,没关系,你可以把它看着一个函数,并且在下文我将立即用线性代数来代替。如果你理解了,请自己写出来然后和我这儿的做个比较。如果你还想详细的理解关于后向传播算法的推导过程,你可以根据我后面的推荐书籍进行查找,毕竟这已经超出了这份材料的范围。
)。我们首先需要计算误差是怎么依赖于来自上层的输入的,而和权值无关。这很简单,我们只须把公式(7),(8),(9)里的
用
代替。但是也需要知道网路的误差是怎么随
而变化的。因此:4.1 练习
如果你懂得编程,实现这个后向传播算法,至少能用来训练下面的网络。要是你能实现后向传播的通用算法(随意几层、每层有任意个神经元、任意个训练序列),好好干吧。
如果你还不懂得编程,但是知道运用一些辅助工具(比如Matlab或者Mathematica),那么应用里面定义好的函数找到下面网络的合适的权值吧,这些函数能让你的工作变得轻松一点。
再如果你一点电脑经验都没有的话,还是通过手一步一步的算吧。
这里的网络在输入层有三个神经元,隐藏层有两个,输出层有三个。一般情况下训练序列是很大的,但在这个练习里,我们只用一个训练序列。当输入为(1,0.25,-0.5)时,输出应该为(1,-1,0)。记住,你应该以随机的权值开始训练。
5. 进一步阅读
- Rojas, R. (1966). Neural Networks: A systematical Introduction. Springer, Berlin.
- Rumelhart, D. and J. McClelland (1986). Parallel Distributed Processing. MIT Press, Cambridge, Mass.
- Bar-Yam, Y. (1997). Dynamics of Complex Systems,Addison-Wesley.
- Kauffman, S. (1993). Origins of Order, Oxford University Press.
6. 在线资源
7. 参考书目
- Bar-Yam, Y. (1997). Dynamics of Complex Systems. Addison-Wesley.
- Kauffman, S. (1993). Origins of Order, Oxford University Press.
- McCulloch, W. and W. Pitts (1943). A Logical Calculus of the Ideas Immanent in Nervous Activity.Bulletin of Mathematical Biophysics, Vol. 5, pp. 115-133.
- Rojas, R. (1996). Neural Networks: A Systematic Introduction. Springer, Berlin.
- Rumelhart, D. and J. McClelland (1986). Parallel Distributed Processing. MIT Press, Cambridge,
- Mass.Young, D.Formal Computational Skills Course Notes.
来源:https://blog.csdn.net/york1996/article/details/98853268







































