归一化

OSSIM传感器Agent传送机制初探

…衆ロ難τιáo~ 提交于 2019-11-30 10:29:34
  OSSIM Agent的主要职责是收集网络上存在的各种设备发送的所有数据,然后按照一种标准方式有序发给OSSIM Server,Agent收集到数据后在发送给Server之前要对这些数据进行归一化处理,本文主要就如何有序发送数据与如何完成归一化进行讨论。   OSSIM传感器在通过GET框架实现OSSIM代理和OSSIM服务器之间通信协议和数据格式的之间转换。下面我们先简要看一下ossim-agent脚本:   #!/usr/bin/python -OOt   import sys   sys.path.append('/usr/share/ossim-agent/')   sys.path.append('/usr/local/share/ossim-agent/')   from ossim_agent.Agent import Agent   agent = Agent()   agent.main()   这里需要GET作为OSSIM代理向OSSIM服务器输送数据。实现紧密整合所需的两个主要操作是“生成”(或)OSSIM兼容事件的“映射Mapping”)和此类数据向OSSIM的“传输”服务器。它负责此类操作的GET框架的两个组件是EventHandler和Sender Agent,如图1所示。   图1 将Get框架内容集成到OSSIM   Event

归一化

丶灬走出姿态 提交于 2019-11-30 02:11:59
【原】关于使用sklearn进行数据预处理 —— 归一化/标准化/正则化 </h1> <div class="clear"></div> <div class="postBody"> 一、标准化(Z-Score),或者去除均值和方差缩放 公式为:(X-mean)/std 计算时对每个属性/每列 分别 进行。 将数据按期属性(按列进行)减去其均值,并处以其方差。得到的结果是,对于每个属性/每列来说所有数据都聚集在0附近,方差为1。 实现时,有两种不同的方式: 使用sklearn.preprocessing.scale()函数,可以直接将给定数据进行标准化。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 >>> from sklearn import preprocessing >>> import numpy as np >>> X = np.array([[ 1 ., - 1 ., 2 .], ... [ 2 ., 0 ., 0 .], ... [ 0 ., 1 ., - 1 .]]) >>> X_scaled = preprocessing.scale(X) >>> X_scaled array([[ 0 . ..., - 1.22 ..., 1.33 ...], [ 1.22 ..., 0 . ..., - 0.26 ...], [-

机器学习:数据预处理值独热编码(One-Hot)

a 夏天 提交于 2019-11-29 16:37:19
机器学习:数据预处理之独热编码(One-Hot) 在机器学习算法中,我们经常会遇到分类特征,例如:人的性别有男女,国籍有中国,美国,法国等。这些特征值并不是连续的,而是离散的,无序的。通常我们需要对其进行特征数字化。 那什么是特征数字化呢?例子如下: 性别特征:[“男”,“女”] 国籍特征:[“中国”,"美国,“法国”] 运动特征:[“足球”,“篮球”,“羽毛球”,“乒乓球”] 假如某个样本(某个人),他的特征是这样的[“男”,“中国”,“乒乓球”],我们可以用 [0,0,3] 来表示,但是这样的特征处理并不能直接放入机器学习算法中。因为类别之间是无序的(运动特征数据就是任意排序的)。 什么是独热编码(One-Hot)? One-Hot编码,又称为一位有效编码,主要是采用N位状态寄存器来对N个状态进行编码,每个状态都由他独立的寄存器位,并且在任意时候只有一位有效。One-Hot编码是分类变量作为二进制向量的表示。这首先要求将分类值映射到整数值。然后,每个整数值被表示为二进制向量,除了整数的索引之外,其它都是零值,它被标记为1。 One-Hot 实例 就拿上面的例子来说吧,性别特征:[“男”,“女”],按照N位状态寄存器来对N个状态进行编码的原理,咱们处理后应该是这样的(这里只有两个特征,所以N=2): 男 => 10 女 => 01 祖国特征:[“中国”,"美国,“法国”](这里N

Deep Facial Expression Recogniton: A survey笔记

守給你的承諾、 提交于 2019-11-29 13:16:49
这篇文章是北邮的邓伟洪教授关于 Deep Facial Expression Recognition,DFER 的一篇综述性文章,该文章被 计算机视觉顶会CVPR 收录。 目前,FER(Facial Expression Recogniton)主要存在两个问题:一个就是缺少大量的数据来训练表情识别网络,一旦网络训练数据量过少,就会发生过拟合的现象,这点目前还没有有效的解决办法;另一个问题就是由于年龄、性别、道德背景等的差异,导致个体间的差异比较明显。除此之外,光照和姿态也会对FER产生较大的影响。 这篇文章详细介绍了解决FER目前存在的问题的一些方法。其中文章section1介绍了FER的发展历程,section2介绍了FER实验常用的数据集,section3介绍了FER系统识别的三个主要步骤,section4提供了一些主流的网络架构以及训练技巧,section5则讨论了一些其他相关的问题,section6主要论述了一下FER未来的挑战和机遇。下面以章节划分逐一介绍。 section2 FACIAL EXPRESSION DATABASES 该部分列举了FER可用的数据库。 主要有CK+、MMI、JAFFE、TED、FER2013、AFEW、SFEW、Multi-PIE、BU-3DFE、Oulu-CASIA、RaFD、KDEF、EmotionNet、RAF-DB、AffectNet

Tensorflow.cifar_tf.nn.lrn

夙愿已清 提交于 2019-11-29 00:57:31
1、cifar 相关 (实际上这也是 度娘"tf.nn.lrn"时 搜索到的)  1.1、学习笔记TF029_实现进阶卷积网络 - 简书.html( https://www.jianshu.com/p/db534c67ea97 )   1.1.1、GitHub - tensorflow_models_ Models and examples built with TensorFlow.html( https://github.com/tensorflow/models )ZC:我已经 复制到 gitee中了      https://gitee.com/zclxy/models_tensorflow/tree/master/tutorials/image/cifar10 中能看到 下载 "cifar-10"和"cifar-100"的dataset 的网址   1.1.2、Classification datasets results.html( http://rodrigob.github.io/are_we_there_yet/build/classification_datasets_results.html )     ZC:这里有 "cifar-10"和"cifar-100"的dataset 的链接,实际上和上面是 一个地方      2、tf.nn.lrn 相关  2.1

笔记 :归纳总结 (一)

孤街浪徒 提交于 2019-11-28 13:09:57
原文: http://blog.gqylpy.com/gqy/480 置顶:来自一名75后老程序员的武林秘籍——必读 (博主推荐) 来,先呈上武林秘籍链接: http://blog.gqylpy.com/gqy/401/ 你好,我是一名极客!一个 75 后的老工程师! 我将花两分钟,表述清楚我让你读这段文字的目的! 如果你看过武侠小说,你可以把这个经历理解为,你失足落入一个山洞遇到了一位垂暮的老者!而这位老者打算传你一套武功秘籍! 没错,我就是这个老者! 干研发 20 多年了!我也年轻过,奋斗过!我会画原理图,会画 PCB,会模拟,会数字!玩过 PLC,玩过单片机,会用汇编,会用 C!玩过 ARM,比如 PLC,STM32,和时下正在起飞的 NXP RT1052!搞过 DSP,比如 TMS320F28335!搞过 FPGA,不管 Xilinx 还是 Altera,也不管是 Verilog 还是 VHDL,或者直接画数字电路图!我懂嵌入式系统,比如 uCOS 和 Linux!我懂开源的硬件,比如 Arduino 和树莓派!我也搞软件,学了一堆上位机的语言C#,JAVA,Python,Kotlin,Swift!会写爬虫工具,又自学写APP,不管Android 还是 IOS! 可是这一切有什么用呢?土鸡瓦狗!不值一提!干技术的永远就是最苦逼的那个人! 我相信看到这里的你,应该是个 IT

PCA算法

丶灬走出姿态 提交于 2019-11-28 04:04:48
作者:桂。 时间:2017-02-26 19:54:26 链接: http://www.cnblogs.com/xingshansi/articles/6445625.html 前言 本文为模式识别系列第一篇,主要介绍主成分分析算法(Principal Component Analysis,PCA)的理论,并附上相关代码。全文主要分六个部分展开:   1)简单示例。通过简单的例子,引出PCA算法;   2)理论推导。主要介绍PCA算法的理论推导以及对应的数学含义;   3)算法步骤。主要介绍PCA算法的算法流程;   4)应用实例。针对PCA的实际应用,列出两个应用实例;   5)常见问题补充。对于数据预处理过程中常遇到的问题进行补充;   6)扩展阅读。简要介绍PCA的不足,并给出K-L变换、Kernel-PCA(KPCA)的相关链接。 本文为个人总结,内容多有不当之处,麻烦各位批评指正。 一、简单示例    A-示例1:降维 先来看一组学生的成绩 学生1 学生2 学生3 学生4 ... 学生N 语文成绩 85 85 85 85 ... 85 数学成绩 96 93 78 64 ... 97 为了方便分析,我们假设N=5; 学生1 学生2 学生3 学生4 学生5 语文成绩 85 85 85 85 85 数学成绩 96 93 78 64 97 问题:

cs231N_课程笔记 (转)

本秂侑毒 提交于 2019-11-28 00:03:14
本文转载自:https://zhuanlan.zhihu.com/p/21560667?refer=intelligentunit 译者注:本文智能单元首发,译自斯坦福CS231n课程笔记Neural Nets notes 2,课程教师Andrej Karpathy授权翻译。本篇教程由杜客翻译完成,堃堃进行校对修改。译文含公式和代码,建议PC端阅读。 原文如下 内容列表: 设置数据和模型 数据预处理 权重初始化 批量归一化(Batch Normalization) 正则化(L2/L1/Maxnorm/Dropout) 损失函数 小结 设置数据和模型 在上一节中介绍了神经元的模型,它在计算内积后进行非线性激活函数计算,神经网络将这些神经元组织成各个层。这些做法共同定义了评分函数(score function)的新形式,该形式是从前面线性分类章节中的简单线性映射发展而来的。具体来说,神经网络就是进行了一系列的线性映射与非线性激活函数交织的运算。本节将讨论更多的算法设计选项,比如数据预处理,权重初始化和损失函数。 数据预处理 关于数据预处理我们有3个常用的符号,数据矩阵X,假设其尺寸是[N x D](N是数据样本的数量,D是数据的维度)。 均值减法(Mean subtraction)是预处理最常用的形式。它对数据中每个独立特征减去平均值

机器学习--scikit-learn库(2)

和自甴很熟 提交于 2019-11-27 21:15:55
上一节讲的是scikit-learn库的最简单的用法。 现在要更加进阶啦~ 头一节的第三个问题是如何使用scikit-learn的官网,其实我现在也不太清楚,还是跟着练习的时候到需要查看官方文档的时候自己慢慢摸索吧。 这篇笔记要记录的是,库里面的datasets到底有哪些?以及模型的参数如何查看的问题,还有归一化数据的问题。 首先我想去看看scikit-learn中到底有多少自带的数据库。 点进官网先~官网大概长成这样滴 然后点首页上方的documentation中的API,意思是接口的意思。 进API页面的左边部分找找找~总算找到啦,也不是很难嘛。 sklearn.datasets。里面写了库中自己加载了多少datasets,比如datasets.load_iris()就是上一篇文章里面用到的花的数据。 还有波士顿房价、乳腺癌发病率记录之类的,都可以用作练习使用。甚至还可以自己生成数据。 这个问题解决之后,我们再来看一个例子。这个例子我们使用逻辑回归模型来对花的种类进行分类。 #先拟合模型 model = LogisticRegression() model.fit(x_train,y_train) #测试模型性能 print(model.predict(x_test)) print(model.score(x_test,y_test)) print(model.get

数据标准化/归一化方法

牧云@^-^@ 提交于 2019-11-27 18:03:05
归一化方法(Normalization Method) 1。 把数变为(0,1)之间的小数 主要是为了数据处理方便提出来的,把数据映射到0~1范围之内处理,更加便捷快速,应该归到数字信号处理范畴之内。 2 。把有量纲表达式变为无量纲表达式 归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为纯量。 比如,复数阻抗可以归一化书写:Z = R + jωL = R(1 + jωL/R) ,复数部分变成了纯数量了,没有量纲。 另外,微波之中也就是电路分析、信号系统、电磁波传输等,有很多运算都可以如此处理,既保证了运算的便捷,又能凸现出物理量的本质含义。 标准化方法(Normalization Method) 数据的标准化是将数据按比例缩放,使之落入一个小的特定区间。由于信用指标体系的各个指标度量单位是不同的,为了能够将指标参与评价计算,需要对指标进行规范化处理,通过函数变换将其数值映射到某个数值区间。一般常用的有以下几种方法。 (1) 最小-最大规范化对原始数据进行线性变换。假定MaxA与MinA分别表示属性A的最大与最小值。最小最大规范化通过计算 将属性A的值映射到区间[a, b]上的v。一般来说,将最小-最大规范化在用于信用指标数据上,常用的有以下两种函数形式: a) 效益型指标(越大越好型)的隶属函数: b) 成本型指标(越小越好型)的隶属函数: (2)