权重

HTML和css简单日常总结

两盒软妹~` 提交于 2019-11-28 06:21:08
今天主要学习了两个部分: 第一部分html: 在w3school学习了一些标签的使用和一些属性和方法,例如一些标签<a>,<h1><h6><from> <div>标签等,在这些标签里面还分了很多类型,比如:块级元素,行内元素,行内块元素。块级元素标志性的 标签div,h1~h6,p等,行内元素是在一个行内显示所有的字段和标签,他不根据你css样式里所给的长和宽所变动 行内块元素有img标签为代表,行内块元素与行内元素的区别是,行内块元素可以根据css的样式调整他的宽和长。 第二部分css: 主要学习了,css的样式以及css的一些用法,最主要的是学习了css的权重部分,因为css的权重是样式的优先级, 有两条或多条样式被用作一个元素,权重高的元素起作用,权重相同的后面的覆盖前面的样式。 权重等级的一些关键词: 1.!important ,权重值是10000 2.style=“”,权重值是1000 3.content,权重只是100 4.content:hover,权重值是10 5.标签,div,p,权重值1 6.通用选择器(*)、子选择器(>)、相邻选择器(+)、同胞选择器(~)、权重值为0 来源: https://www.cnblogs.com/qijiang123/p/11397036.html

YOLOv3只检测人

瘦欲@ 提交于 2019-11-28 05:19:33
解决办法: 修改源码只输出人一类。实际上会检测另外79类。 重新训练。 参考文献: (法一,简单高效)yolov3 修改 只识别一类(person) - Limbos的博客 - CSDN博客 https://blog.csdn.net/limbos/article/details/81949591 (法二,麻烦完美)yolov3算法检测单类物体 - z649431508的博客 - CSDN博客 https://blog.csdn.net/z649431508/article/details/82191036 文献1是针对C下的YOLOv3,本文针对Python Keras下的YOLOv3: 法一: 修改 yolo.py 第135行,添加如下代码即可: #Just detect person if predicted_class != 'person' : continue 法二: 一、源码地址 qqwweee/keras-yolo3: A Keras implementation of YOLOv3 (Tensorflow backend) https://github.com/qqwweee/keras-yolo3 二、预训练权重 https://pjreddie.com/media/files/yolov3.weights 三、数据集 https://download.csdn

bagging,random forest,boosting(adaboost、GBDT),XGBoost小结

 ̄綄美尐妖づ 提交于 2019-11-28 05:08:46
Bagging 从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping(有放回)的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中)。共进行k轮抽取,得到k个训练集。(我们这里假设k个训练集之间是相互独立的,事实上不是完全独立) 每次使用一个训练集得到一个模型,k个训练集共得到k个模型。但是是同种模型。(注:k个训练集虽然有重合不完全独立,训练出来的模型因为是同种模型也是不完全独立。这里并没有具体的分类算法或回归方法,我们可以根据具体问题采用不同的分类或回归方法,如决策树、感知器等) 对分类问题:将上步得到的k个模型采用投票的方式得到分类结果;对回归问题,计算上述模型的均值作为最后的结果。(所有模型的重要性相同) 随机森林Random Forest 从原始训练数据集中,应用bootstrap方法有放回地随机抽取k个新的自助样本集,并由此构建k棵分类回归树,每次未被抽到的样本组成了K个袋外数据。 设有n个特征,则在每一棵树的每个节点处随机抽取m个特征,通过计算每个特征蕴含的信息量,特征中选择一个最具有分类能力的特征进行节点分裂。 每棵树最大限度地生长,不做任何剪裁 将生成的多棵树组成随机森林,用随机森林对新的数据进行分类,分类结果按树分类器投票多少而定。 Boosting Boosting有很多种,比如AdaBoost

迪杰斯特拉算法

穿精又带淫゛_ 提交于 2019-11-28 04:17:19
迪杰斯特拉算法( SPF :Shortest Path First最短路径算法) 1. 算法思想 输入(即已知条件): 有权重的无向图G={E,V},V是顶点的集合,E是边的集合 ,每一边皆有权重(大于零),源节点s和目的节点d都属于集合V(s∈V, d∈V)。 输出(即求得的结果): 源节点s到所有其它节点的最短路径的长度。 2. 初始化阶段,除了起点A外,所有节点的距离dist设置为无穷大。 3. 更新邻居的距离 起点A的邻居为为B,D,根据边AB、AD的权重,将其距离分别更新为 Distance(B)=2,Distance(D)=1 4. 移除有最小距离的点D 由于A的邻居节点是B和D,Distance(B)=2>Distance(D)=1,所以移除D点。 5. 以移除的D为起点进行更新 分别计算D的邻居节点的距离,等于AD的权重,加上DC、DFDG、DE、DB的权重。 6. 移除B 在未移除的节点中,选择距离最小的B( distance =2)移除,并且更新邻居 注意:distance(D) D不用更新,因为D已知; distance(E)也不用更新,因为BD+DE=5,比前面计算的值3要大。 7. 移除E 在未移除的节点中,选择距离最小的E(distance =3)移除,并且更新邻居 由于邻居B、D已经移除,所以不用更新; distance(G)也不用更新,因为BE+GE

三大特性

你。 提交于 2019-11-28 03:56:55
层叠 继承 优先级 是我们学习CSS 必须掌握的三个特性。 CSS层叠性 所谓层叠性是指多种CSS样式的叠加。 是浏览器处理冲突的一个能力,如果一个属性通过两个选择器设置到同一个元素上,那么这个时候一个属性就会将另一个属性层叠掉 比如先给某个标签指定了内部文字颜色为红色,接着又指定了颜色为蓝色,此时出现一个标签指定了相同样式不同值的情况,这就是样式冲突。 一般情况下,如果出现样式冲突,则会按照CSS书写的顺序,以最后的样式为准。 CSS最后的执行口诀: 长江后浪推前浪,前浪死在沙滩上。 CSS继承性 所谓继承性是指书写CSS样式表时,子标签会继承父标签的某些样式,如文本颜色和字号。想要设置一个可继承的属性,只需将它应用于父元素即可。 简单的理解就是: 子承父业。 CSS最后的执行口诀: 龙生龙,凤生凤,老鼠生的孩子会打洞。 注意: 恰当地使用继承可以简化代码,降低CSS样式的复杂性。子元素可以继承父元素的样式(text-,font-,line-这些元素开头的都可以继承,以及color属性) CSS优先级 定义CSS样式时,经常出现两个或更多规则应用在同一元素上,这时就会出现优先级的问题。 在考虑权重时,初学者还需要注意一些特殊的情况,具体如下: 继承样式的权重为0。即在嵌套结构中,不管父元素样式的权重多大,被子元素继承时,他的权重都为0,也就是说子元素定义的样式会覆盖继承来的样式。

NN入门

馋奶兔 提交于 2019-11-28 01:07:33
参考资料: https://blog.csdn.net/kwame211/article/details/77337166 , 仅作为个人学习笔记 。 人工智能的底层模型是 "神经网络" (neural network)。 1、感知器 历史上,科学家一直希望模拟人的大脑,造出可以思考的机器。人为什么能够思考?科学家发现,原因在于 人体的神经网络 。见上章图 外部刺激通过神经末梢,转化为电信号,转导到神经细胞(又叫神经元)。 无数神经元构成神经中枢。 神经中枢综合各种信号,做出判断。 人体根据神经中枢的指令,对外部刺激做出反应。 既然思考的基础是神经元,如果能够"人造神经元"(artificial neuron),就能组成人工神经网络,模拟思考。上个世纪六十年代,提出了最早的 "人造神经元"模型 ,叫做 "感知器" (perceptron),直到今天还在用。 上图的 圆圈就代表一个感知器 。它 接受多个输入 (x1,x2,x3...), 产生一个输出 (output),好比神经末梢感受各种外部环境的变化,最后产生电信号。 为了简化模型,我们约定每种输入只有两种可能:1 或 0。如果所有输入都是1,表示各种条件都成立,输出就是1;如果所有输入都是0,表示条件都不成立,输出就是0。 2、感知器示例 城里正在举办一年一度的游戏动漫展览,小明拿不定主意,周末要不要去参观。他决定考虑三个因素:

【深度学习】神经网络入门

我与影子孤独终老i 提交于 2019-11-28 00:31:58
0.神经网络模型   一个简单的神经网络,其含括3个层,输入层,隐藏层,输出层。   输入层(Input layer):用于输入样本数据x;   隐藏层(Hidden layer):用于处理输入的数据,例如降维,突出数据特征,其中可能含有多个层;   输出层(Output layer):输入数据由隐藏层传入,经过计算,再输出最终结果。   其架构图[1]如下: 1. 线性模型   关于如何入手,由单一特征模型(1.1)开始。 1.1. 回归直线方程:   假设现在有一波散点,呈一定线性规律分布在x、y轴上,此时希望求出一条直线,使直线尽量离所有散点距离最近。可以设这条直线是 y = wx + b,那么如何确定w与 b 呢? 此时的 w 就是对 x 映射到 y 数值影响的程度,也就是权重 (weight) ;而b是偏差值 (bias) ,可能为任意实数。   我们最终的目的是,求出一条尽量贴切所有散点(这个过程是回归 [0] ,是拟合 [1] 的一种)的直线,那么这条线 y_预 与实际值 y_实 之间的差距,必然希望是尽可能最小,而关于如何计算这个差距,那就有很多种计算方法,要看具体场景选择哪个距离函数。这个表示差距函数就是损失函数 (loss function不同翻译也叫代价函数) ,设其为 f(x) ,有:   设m为样本总数,以误差平方和均值的一半作为 loss:  

cs231N_课程笔记 (转)

本秂侑毒 提交于 2019-11-28 00:03:14
本文转载自:https://zhuanlan.zhihu.com/p/21560667?refer=intelligentunit 译者注:本文智能单元首发,译自斯坦福CS231n课程笔记Neural Nets notes 2,课程教师Andrej Karpathy授权翻译。本篇教程由杜客翻译完成,堃堃进行校对修改。译文含公式和代码,建议PC端阅读。 原文如下 内容列表: 设置数据和模型 数据预处理 权重初始化 批量归一化(Batch Normalization) 正则化(L2/L1/Maxnorm/Dropout) 损失函数 小结 设置数据和模型 在上一节中介绍了神经元的模型,它在计算内积后进行非线性激活函数计算,神经网络将这些神经元组织成各个层。这些做法共同定义了评分函数(score function)的新形式,该形式是从前面线性分类章节中的简单线性映射发展而来的。具体来说,神经网络就是进行了一系列的线性映射与非线性激活函数交织的运算。本节将讨论更多的算法设计选项,比如数据预处理,权重初始化和损失函数。 数据预处理 关于数据预处理我们有3个常用的符号,数据矩阵X,假设其尺寸是[N x D](N是数据样本的数量,D是数据的维度)。 均值减法(Mean subtraction)是预处理最常用的形式。它对数据中每个独立特征减去平均值

一篇读懂分布式架构下的负载均衡

房东的猫 提交于 2019-11-27 22:54:42
微信公众号: IT一刻钟 大型现实非严肃主义现场 一刻钟与你分享优质技术架构与见闻,做一个有剧情的程序员 关注可了解更多精彩内容,定期有福利相送哟 文章目录 什么是负载均衡? 负载均衡分类 二层负载均衡 三层负载均衡 四层负载均衡 七层负载均衡 负载均衡算法 静态均衡算法: 动态负债均衡算法: 说在后面话 什么是负载均衡? 百度词条里的解释是:负载均衡,英文叫Load Balance,意思就是将请求或者数据分摊到多个操作单元上进行执行,共同完成工作任务。 它的目的就通过调度集群,达到最佳化资源使用,最大化吞吐率,最小化响应时间,避免单点过载的问题。 负载均衡分类 负载均衡可以根据网络协议的层数进行分类,我们这里以ISO模型为准,从下到上分为: 物理层,数据链路层,网络层,传输层,会话层,表示层,应用层。 当客户端发起请求,会经过层层的封装,发给服务器,服务器收到请求后经过层层的解析,获取到对应的内容。 二层负载均衡 二层负债均衡是基于数据链路层的负债均衡,即让负债均衡服务器和业务服务器绑定同一个虚拟IP(即VIP),客户端直接通过这个VIP进行请求,那么如何区分相同IP下的不同机器呢?没错,通过MAC物理地址,每台机器的MAC物理地址都不一样,当负载均衡服务器接收到请求之后,通过改写HTTP报文中以太网首部的MAC地址,按照某种算法将请求转发到目标机器上,实现负载均衡。

理解分布式系统常用的负载均衡算法

拈花ヽ惹草 提交于 2019-11-27 22:48:15
分布式系统常用的负载均衡算法 最近在做的系统上使用ES比较多,出于对ES的学习,在了解了ES的负载均衡算法之后,也相应的了解了其它的负载均衡算法,在这里做一个分享。 1:轮询法: 轮询很容易实现,将请求按顺序轮流分配到后台服务器上,均衡的对待每一台服务器,而不关心服务器实际的连接数和当前的系统负载。使用轮询策略的目的是,希望做到请求转移的绝对均衡,但付出的性能代价也是相当大的。为了保证pos变量的并发互斥,引入了重量级悲观锁synchronized,将会导致该轮询代码的并发吞吐量明显下降。 2:随机法: 通过系统随机函数,根据后台服务器列表的大小值来随机选取其中一台进行访问。由概率统计理论得知,随着调用量的增大,其实际效果越来越仅仅与平均分配流量到后台的每一台服务器,也就是轮询法的效果。 3:随机轮询法: 随机轮询,就是将随机法和轮询法结合起来,在轮询节点时,随机选择一个节点作为开始位置的index,此后每次选择下一个节点来处理请求,即(index+1)%size。 这种方式只是在选择第一个节点使用了随机方法,其他与轮询法无异,缺点和轮询一样。 4:源地址哈希法: 源地址哈希的思想是根据服务消费者请求客户端的IP地址,通过哈希函数计算得到一个哈希值,将此哈希值和服务器列表的大小进行取模运算,得到的结果便是要访问的服务器地址的序号。采用源地址哈希法进行负载均衡,相同的ip客户端