权重

一种有向权值的约束多目标进化算法(DW-COMPs)--学习笔记

扶醉桌前 提交于 2019-12-10 07:34:31
一种有向权值的约束多目标进化算法(DW-COMPs) 摘要 :这篇文章提出了一个新的基于有向权重的约束处理技术来处理约束多目标优化问题(CMOPs)。这篇文章采用了两种权重,分别是:分布在可行区域的可行权重和分布在不可行区域的不可行权重,来指导搜索向有希望的区域进行。为了充分利用不可行个体中的有用信息,这篇文章使用了不可行权重来保持分布较好的不可行个体的多样性。同时,他们能随着演化状态动态改变,以偏好目标函数值更好和约束违反更小的不可行个体。简而言之,这篇文章的工作就是用有向权值的方法将m维的约束多目标优化问题转化为m+1维的无约束多目标优化问题。 引言: 这篇文章的主要描述如下: 1.提出的算法与其他约束多目标进化算法的主要不同在于约束处理技术。提出的算法能够保持种群信息不可行个体的多样性,尽可能多地覆盖获得的非支配解,这有利于进化过程。 2.考虑到提出的算法的特性,它不仅包含一组分布较好的可行非支配解,而且在演化过程中能够保持一组目标函数值较好,约束违反较小的不同的不可行个体,以保证找到的一组分布较好的Pareto最优解的可靠性和稳定性。 3.提出的约束处理技术的有效性和参数的敏感性已被实验验证。 基础概念 约束多目标优化(1)-(3) 这篇文章将一个m维的约束多目标优化问题转化成一个m+1维的无约束多目标优化问题(4) 这篇文章使用的是一个基于分组的适应度函数

PointConv解读

丶灬走出姿态 提交于 2019-12-09 22:36:00
PointConv:Deep Convolutional Networks on 3D Point Clouds 摘要 传统的卷积是作用在二维图像数据上,图像数据通常可以表示成密集的网格形式。在CNN中,每个滤波器被限制在一个小的局部区域内,例如3×3;5×5等。在每个局部区域内,不同像素之间的相对位置总是固定的,如图(a)所示。并且我们可以容易地将滤波器离散化,成为具有局部区域内的每个位置的实值权重的总和。 三维数据通常是以点云的形式表示,就是一组无序的三维点,一组点云集合可以表示为一组3D点的集合{p_i|i=1,…,n},其中每个点包含一组位置向量(x,y,z)或其它信息如颜色、表面切线等。不同于图像,点云的表示形式更灵活。在坐标系p=(x,y,z)∈R^3中,一个点的坐标不会限制在一个固定网格里,而是有可能取任意的连续值(如图(b)和(c)所示,一个点云在不同的局部区域内的顺序和相对位置都是不同的)。因此,每个局部区域中不同点的相对位置是不同的。栅格化的图像上的传统离散卷积滤波器不能直接应用于点云,因此,在点云数据上使用卷积是困难的。 介绍 3D CNN网络上的大多数工作都将3D点云转换为2D图像或3D体积网格,然后应用2D、3D卷积网络进行处理。最新的有将点云直接作为输入处理的工作,例如: (1) PointNet:Deep Learning on Point Sets

Nginx、HAProxy、LVS三者的优缺点

三世轮回 提交于 2019-12-09 16:00:46
一、Nginx优点: 1、工作在网络7层之上,可针对http应用做一些分流的策略,如针对域名、目录结构,它的正规规则比HAProxy更为强大和灵活,所以,目前为止广泛流行。 2、Nginx对网络稳定性的依赖非常小,理论上能ping通就能进行负载功能。 3、Nginx安装与配置比较简单,测试也比较方便,基本能把错误日志打印出来。 4、可以承担高负载压力且稳定,硬件不差的情况下一般能支撑几万次的并发量,负载度比LVS小。 5、Nginx可以通过端口检测到服务器内部的故障,如根据服务器处理网页返回的状态码、超时等,并会把返回错误的请求重新提交到另一个节点。 6、不仅仅是优秀的负载均衡器/反向代理软件,同时也是强大的Web应用服务器。LNMP也是近些年非常流行的Web架构,在高流量环境中稳定性也很好。 7、可作为中层反向代理使用。 8、可作为静态网页和图片服务器。 9、Nginx社区活跃,第三方模块非常多,相关的资料在网上比比皆是。 Nginx常规的和HTTP请求和相应流程图: Nginx缺点: 1、适应范围较小,仅能支持http、https、Email协议。 2、对后端服务器的健康检查,只支持通过端口检测,不支持url来检测。比如用户正在上传一个文件,而处理该上传的节点刚好在上传过程中出现故障,Nginx会把上传切到另一台服务器重新处理,而LVS就直接断掉了

【深度学习】权重初始化

末鹿安然 提交于 2019-12-09 15:47:20
初始化为0 上一篇文章已经非常详细的讲了权重和偏差初始化为0,无法正常训练神经网络,初始化为0是不行的。 初始化为相同的数字 如果将每个隐藏单元的参数都初始化为相等的值,那么在正向传播时每个隐藏单元将根据相同的输入计算出相同的值,并传递至输出层。在反向传播中,每个隐藏单元的参数梯度值相等。因此,这些参数在使用基于梯度的优化算法迭代后值依然相等。之后的迭代也是如此。在这种情况下,无论隐藏单元有多少,隐藏层本质上只有1个隐藏单元在发挥作用。因此,正如在前面的实验中所做的那样,我们通常将神经网络的模型参数,特别是权重参数,进行随机初始化。 所以这里强调了随机初始化的重要性 来源: CSDN 作者: 失去的,绝不会留恋! 链接: https://blog.csdn.net/weixin_44224198/article/details/103458188

你应该知道的一些事情——CSS权重

杀马特。学长 韩版系。学妹 提交于 2019-12-07 19:11:29
本文由 99 根据 Vitaly Friedman 的《 CSS Specificity: Things You Should Know 》所译,整个译文带有我们自己的理解与思想,如果译得不好或不对之处还请同行朋友指点。如需转载此译文,需注明英文出处: http://coding.smashingmagazine.com/2007/07/27/css-specificity-things-you-should-know ,以及作者相关信息 作者: Vitaly Friedman 译者: 99 除了 浮动 之外,css权重问题是你要了解的,最复杂的一个概念之一。css每条规则权重的不同,是你所期望的效果,没有通过css规则在元素上生效的主要原因。为了减少调试bug的时间,你需要了解浏览器是怎样解析你的代码的。为了完成这个目标,你需要对权重是如何工作的,有一个清楚的认识。很多Css出现问题的场景,都是某处定义了一个更高权重的规则,导致此处规则不生效。 Css权重问题并不简单,而且有很多或具体或抽象的理论来解释这个问题。本文也将探讨这个问题,我相信如果你喜欢星球大战的话你肯定会理解这些概念的~ 我们将会讨论关于css权重的主要问题,包括例子,规则,原理,通用解决方案以及一些资源。 CSS权重:概述 权重决定了哪一条规则会被浏览器应用在元素上。 权重的不同,是你所期望的效果

浅谈网站外链一月飙升一万惨遭百度毒手心得

懵懂的女人 提交于 2019-12-07 16:31:09
  今日写文,一是表达我心中的愤怒,二是阐述我网站建设中的的疑惑,三则告诫网站优化的新手切勿走入外链误区。言归正传,作为一名专业的网站优化人员,笔者孤独王子深知“内容为王,外链为皇”的道理,所以在承接任务的时候,笔者也是在内容与外链上下功夫。废话不多说,笔者分析将客户网站的外链数从一个月前的1千多,增加到现在的1万多后,不幸被K掉的前因后果。客户网站排名第一不用说,眼看流量大增,美好前途就在眼前时。却不得不面对惨遭百度K掉现实,让我痛心不已。   笔者孤独王子,今日就来分析分析,希望能够给大家带来一点点的启示:   (1)网站建设中外链建设是必不可少的   不用笔者详说,外链的重要性大家一目了然。用百度百科上的话来说:外链就是指从别的网站导入到自己网站的链接。导入链接对于网站优化来说是非常重要的一个过程。导入链接的质量直接决定了我们的网站在搜索引擎中的权重。目前增加外链却成为广大站长比较重视以及头疼的问题,如何获得外链呢?又如何通过外部链接来构成链轮增加自己网站的权重。笔者细数一下,现在增加外链的主要方式无非就是百度问答平台,论坛外链,分类信息平台,以及网络媒体平台(通过发软文加链接)等等。前三种是方式是站长最普及的方法,也是比较有效的方法。某些站长发出观点,不做外链行不行!笔者认为,外链不仅要做,而且非做不可,甚至要细水长流的做下去。即便每天做得不多,但是也要坚持

第3部分 css复合选择器,标签显示模式(display)、行高(line-height)、css背景(背景图片及位置设置)、css三大特性及优先级

微笑、不失礼 提交于 2019-12-06 18:53:43
CSS 选择器的下一个重点: 复合选择器:后代选择器;并集选择器。 标签显示模式(display)。 CSS背景位置、背景图片等。 CSS三大特性:优先级。 一、CSS复合选择器 css 的基础选择器不能满足快速开发要求,所以要使用复合选择器。 复合选择器可以更准确更精细的选择目标元素。它由两个或多个基础选择器,用不同的方式组合而成。 1、后代选择器(重点),用空格选择 也叫做包含选择器,可用来选择元素或元素的子孙后代。写法是先把外层标签写在前,内层标签写在后面。例如: 父级 子级{属性1: 属性值1; 属性2: 属性值2;} 示例:.class h3 { color: red; font-size: 16px;} 2、子元素选择器,用大于符号选择(>) 只能选择子标签,不能选择孙子标签。写法是:父级标签写在前面,子级标签写在后面,中间用大于符号(>)连接。 示例语法:.class>h3 {color: red; font-size:16px;} 还可以根据关系继续选择下去:.class>h3>span {color: red; font-size:16px;} 注意:只能用来选择子标签(或者叫亲儿子),不能选择孙子标签 3、 交集选择器,用点选择 由两个选择器构成,找到的标签必须满足标签一的特点,也有标签二的特点。例如: h3.class {color: red;}

Batch Normalization详解

穿精又带淫゛_ 提交于 2019-12-06 14:23:34
目录 动机 单层视角 多层视角 什么是Batch Normalization Batch Normalization的反向传播 Batch Normalization的预测阶段 Batch Normalization的作用 几个问题 卷积层如何使用BatchNorm? 没有scale and shift过程可不可以? BN层放在ReLU前面还是后面? BN层为什么有效? 参考 博客: blog.shinelee.me | 博客园 | CSDN 动机 在博文《 为什么要做特征归一化/标准化? 博客园 | csdn | blog 》中,我们介绍了对输入进行Standardization后,梯度下降算法更容易选择到合适的(较大的)学习率,下降过程会更加稳定。 在博文《 网络权重初始化方法总结(下):Lecun、Xavier与He Kaiming 博客园 | csdn | blog 》中,我们介绍了如何通过权重初始化让网络在训练之初保持激活层的输出(输入)为zero mean unit variance分布,以减轻梯度消失和梯度爆炸。 但在训练过程中,权重在不断更新,导致激活层输出(输入)的分布会一直变化,可能无法一直保持zero mean unit variance分布,还是有梯度消失和梯度爆炸的可能,直觉上感到,这可能是个问题。下面具体分析。 单层视角 神经网络可以看成是上图形式

面试|海量文本去重~simhash

徘徊边缘 提交于 2019-12-06 13:55:43
simhash算法是google发明的,专门用于海量文本去重的需求,所以在这里记录一下simhash工程化落地问题。 下面我说的都是工程化落地步骤,不仅仅是理论。 背景 互联网上,一篇文章被抄袭来抄袭去,转载来转载去。 被抄袭的文章一般不改,或者少量改动就发表了,所以判重并不是等于的关系,而是相似判断,这个判别的算法就是simhash。 simhash计算 给定一篇文章内容,利用simhash算法可以计算出一个哈希值(64位整形)。 判别两篇文章是相似的方法,就是两个simhash值的距离<=3,这里距离计算采用汉明距离,也就是2个simhash做一下异或运算,数一下比特位=1的有N位,那么距离就是N。 现在问题就是,如何计算文本的simhash? 分词+权重 首先需要将文章作分词,得到若干个(词组,权重)。 分词我们知道很多库都可以实现,最常见的就是结巴分词。权重是怎么得来的呢? 权重一般用TF/IDF算法,TF表示词组在本文章内的频次比例,出现越多则对这篇文章来说越重要,文章分词后TF可以立马计算出来。 IDF是词组在所有文章中的出现比例,出现越多说明词组对文章的区分度越低越不重要,但是IDF因为需要基于所有文章统计,所以一般是离线去批量计算出一个IDF字典。 结巴分词 支持加载IDF词典并且提供了一个默认的词典,它包含了大量的词组以及基于海量文本统计出来的IDF词频

SOM聚类算法

社会主义新天地 提交于 2019-12-06 12:38:42
1. 算法简介 SOM神经网络[11]是由芬兰神经网络专家Kohonen教授提出的,该算法假设在输入对象中存在一些拓扑结构或顺序,可以实现从输入空间(n维)到输出平面(2维)的降维映射,其映射具有拓扑特征保持性质,与实际的大脑处理有很强的理论联系。自组织映射神经网络, 即Self Organizing Maps (SOM), 可以对数据进行无监督学习聚类。它的思想很简单,本质上是一种只有输入层--隐藏层的神经网络。隐藏层中的一个节点代表一个需要聚成的类。训练时采用“竞争学习”的方式,每个输入的样例在隐藏层中找到一个和它最匹配的节点,称为它的激活节点,也叫“winning neuron”。 紧接着用随机梯度下降法更新激活节点的参数。同时,和激活节点临近的点也根据它们距离激活节点的远近而适当地更新参数。   SOM的一个特点是,隐藏层的节点是有拓扑关系的。这个拓扑关系需要我们确定,如果想要一维的模型,那么隐藏节点依次连成一条线;如果想要二维的拓扑关系,那么就行成一个平面,如下图所示(也叫Kohonen Network):   SOM网络包含输入层和输出层。输入层对应一个高维的输入向量,输出层由一系列组织在2维网格上的有序节点构成,输入节点与输出节点通过权重向量连接。学习过程中,找到与之距离最短的输出层单元,即获胜单元,对其更新。同时,将邻近区域的权值更新