自组织

No42.检索--自组织线性表

懵懂的女人 提交于 2020-01-29 00:19:03
线性表在大多数情况下根据关键码值进行排序,再进行检索。但是我们也可以不通过排序,而是估算记录被访问的频率更改记录在线性表中的位置。 三个估算方法(启发式规则): 1. 计 数 方 法 \color {red}{计数方法} 计 数 方 法 。类似于LFU(最不经常使用),每当访问一条记录时,若这条记录的访问数大于排在它前面的记录的访问数,这条记录就会在线性表中向前移动。 缺点:一旦一条记录被访问了很多次,不管将来的访问历史如何,它都会一直在线性表的前面。 2. 移 至 前 端 方 法 ( m o v e − t o − f r o n t ) \color{green}{移至前端方法(move-to-front)} 移 至 前 端 方 法 ( m o v e − t o − f r o n t ) 。类似于LRU(最近最少使用),若找到一条记录,就把它放在线性表的最前面。移至前端方法对访问频率的局部变化能很好地反应,因为当一条记录在一段时间内被频繁访问时,那么在这段时间它会靠近线性表的前端。 3. 转 置 方 法 ( t r a n s p o s e ) \color{orange}{转置方法(transpose)} 转 置 方 法 ( t r a n s p o s e ) 。若找到一条记录,则把这条记录与它在线性表中的前一条记录交换位置。 例子: 假定有八条记录

自组织映射神经网络

佐手、 提交于 2019-12-05 11:26:31
原理 聚类、高维可视化、数据压缩、特征提取 自组织映射神经网络本质上是一个两层的神经网络,包含输入层和输出层(竞争层)输出层中神经元的个数通常是聚类的个数 训练时采用“竞争学习”方式,每个输入在输出层中找到一个和它最匹配的节点,称为激活节点。紧接着用随机梯度下降法更新激活节点的参数,同时,激活节点临近的点也根据他们距离激活节点的远近而适当地更新(更新方式为“墨西哥帽式”)。这种竞争可以通过神经元之间的横向抑制连接(负反馈路径)来实现。 输出层节点是有拓扑关系的(一维线阵、二维平面阵、三维栅格阵),且具有保序映射的特点 学习过程: 初始化 竞争:找到激活节点 合作:更新临界节点参数 适应:适当调整相关兴奋神经元连接权重,使获胜神经元对相似输入模型的后续应用的响应增强 迭代:回到竞争 与K均值的区别 不需要确定类的个数,因为聚类结果的实际簇数可以小于神经元的个数 K均值找到一个最相似的类后,只更新这个类参数;自组织映射神经网络更新了临近的节点。所以K均值易受噪声的影响,而后者准确性可能更低一些 自组织映射神经网络的可视化较好,具有优雅的拓扑关系图 来源: https://www.cnblogs.com/weilonghu/p/11922381.html

【机器学习笔记】自组织映射网络(SOM)

旧街凉风 提交于 2019-12-02 18:44:51
什么是自组织映射? 一个特别有趣的无监督系统是基于 竞争性学习 ,其中输出神经元之间竞争激活,结果是在任意时间只有一个神经元被激活。这个激活的神经元被称为 胜者神经元(winner-takes-all neuron) 。这种竞争可以通过在神经元之间具有 横向抑制连接 (负反馈路径)来实现。其结果是神经元被迫对自身进行重新组合,这样的网络我们称之为 自组织映射(Self Organizing Map,SOM) 。 拓扑映射 神经生物学研究表明,不同的感觉输入(运动,视觉,听觉等)以 有序的方式 映射到大脑皮层的相应区域。 这种映射我们称之为 拓扑映射 ,它具有两个重要特性: 在表示或处理的每个阶段,每一条传入的信息都保存在适当的上下文(相邻节点)中 处理密切相关的信息的神经元之间保持密切,以便它们可以通过短突触连接进行交互 我们的兴趣是建立人工的拓扑映射,以神经生物学激励的方式通过自组织进行学习。 我们将遵循 拓扑映射形成的原则 :“拓扑映射中输出层神经元的空间位置对应于输入空间的特定域或特征”。 建立自组织映射 SOM的主要目标是将任意维度的输入信号模式 转换 为一维或二维离散映射,并以拓扑有序的方式自适应地执行这种变换。 因此,我们通过将神经元放置在一维或二维的网格节点上来建立我们的SOM。更高的尺寸图也是可能的,但不是那么常见。 在竞争性学习过程中,神经元 有选择性地微调