人工神经网络

人工神经网络通俗解释

痴心易碎 提交于 2019-11-26 21:48:04
Han Yang 的答案说「可解释性应该指的是对于数据的可解释性」,我觉得可解释性应该指的是对于「结构」的可解释性。以分类问题举例,对于一些简单的分类问题,我们可以主动设计出一个解决算法,也就是某种 结构 ,并通过测试数据来优化或者纠正这个结构,最重要的是,这个结构可以被人分析、理解和抽象——它最终可以还原为某种流程图,乃至一个逻辑代数的公式。但用神经网络来解决同样的问题,最终训练而来的模型同样是某种 结构 ,却好像是「生长」出来的,没办法把它还原成更抽象的东西,甚至没有太多道理可以讲。 我感觉传统算法比较像传统机器制造业。假如我要做一个硬币分类器,我可以设计一个斜坡,从上到下开由小到大的孔,然后让硬币滑过斜坡,小硬币会先滑落,大硬币会最后滑落,这个结构是可以理解的(并且 predictable)。而神经网络比较像养蛊:我在一个粗大的垂直玻璃管中间放个架子,铺上几层有活性的胶状微粒。然后从玻璃管上方不停往下倒硬币,这些硬币会沉入胶状微粒层,从而改变掉落的方向。如果微粒层使得硬币按照大小分别接近指定落点,我就给这些胶状微粒投点营养剂,如果离远了,我就投点毒。倒了几百万个硬币之后,这些胶状物自己固化出来了一个结构,可以把我扔进去的硬币分别掉落到指定落点,而我却(接近于完全)不知道这些微粒生成出来的这个结构 为什么能 做到这件事(即便我知道单个微粒的工作原理,能调整每一个微粒

给初学者们讲解人工神经网络(ANN)

安稳与你 提交于 2019-11-26 12:33:08
1. 介绍 这份教学包是针对那些对人工神经网络(ANN)没有接触过、基本上完全不懂的一批人做的一个简短入门级的介绍。我们首先简要的引入网络模型,然后才开始讲解ANN的相关术语。作为一个应用的案例,我们解释了后向传播算法,毕竟这一算法已经得到广泛应用并且许多别的算法也是从它继承而来的。 读者应该已经了解线性代数相关知识,也能解决一些函数和向量问题,如果掌握微积分知识更好但不是必须的。这份教学包的内容对一名高中毕业生来讲就已经能理解了。同时,对那些对ANN感兴趣或者想加深理解的人来说也是很有益处的。因此如果读者能全部看完这边教学包,应该对ANN的概念有个清楚的理解。另外对那些想运用后向传播算法但又对晦涩难懂的公式细节不想深入理解的读者来讲,这份教学包你选对了!这份包不应看做是网络上的科普读物,但也不是一篇枯燥的研究论文。为了简洁许多公式都删除了,具体细节的解释和演示在后面的参考书目里,读者可以深入学习。书中的练习章节是用来测试读者对理论知识的掌握程度的。作为对教学包的补充,列出了一些在线资源供读者网上学习。 2. 网络 复杂问题的有效解决方法就是“分而治之”。为了理解的目的,可以把复杂系统分解成一些简单的元素。同样,简单的元素也可集成为复杂系统[Bar Yam, 1997]。网络就是一种可以达到这种目的的方法。虽然网络的类型成千上万,但网络的基本元素是固定的

感知机

北城余情 提交于 2019-11-26 11:37:33
感知机: 就现在我理解的来看,感知机是最早被设计使用的人工神经网络的模型。感知机属于二分类的线性分类模型,输入为实例的特征向量,输出为实例的类别,取值为+1和-1. 感知机使用 特征向量 来表示的 前馈式人工神经网络 ,它是一种二元分类器,把矩阵上的输入 (实数值向量)映射到输出值 上(一个二元的值)。 是实数的表式权重的向量, 是点积。 是偏置,一个不依赖于任何输入值的常数。偏置可以认为是激励函数的偏移量,或者给神经元一个基础活跃等级。 (0 或 1)用于对 进行分类,看它是肯定的还是否定的,这属于二元分类问题。如果 是负的,那么加权后的输入必须产生一个肯定的值并且大于 ,这样才能令分类神经元大于阈值0。从空间上看,偏置改变了 决策边界 的位置(虽然不是定向的)。 由于输入直接经过权重关系转换为输出,所以感知机可以被视为最简单形式的前馈式人工神经网络。 在集合空间中可以这样认为 : 线性方程W*X+b=0 为一个超平面,其中W是超平面的法向量,b为截距,这个超平面将特征空间划分为两个部分,分为正例和负例。W是法向量如(X1,X2,X3.......) 感知机的学习策略 : 就是确定感知机模型的参数W,B,使得定义的(经验)损失函数极小化。 损失函数 : 在这里我们将损失函数定义为:误分类点到超平面s的总距离。 学习方法: 感知机的学习算法是误分类驱动的,具体 采用梯度下降法 。