方差

学习matlab(四)——概率与数理统计

风格不统一 提交于 2020-02-10 20:21:36
概率和数理统计是大学数学的重要内容,无论是在科学研究还是在工程实际中都有着非常广泛的应用。在MATLAB中,提供了专门的统计工具箱Staticstics,该工具箱有几百个专用于求解概率和数理统计问题的函数。本章将详细的介绍随机数的产生,随机变量的概率密度函数和数字特征,以及假设检验、方差分析和统计绘图等。 0.随机数 随机数的产生是概率统计的基础,概率论和数理统计就是对各种样本数据进行分析。在MATLAB中,各种样本数据可以用一些经典的随机分布数来表示。下面对常用的二项分布、均匀分布、指数分布、正态分布等随机数据进行详细的介绍。 <1>二项分布随机分布 在MATLAB中,使用函数binornd()产生二项分布的随机数据。该函数的的调用方式如下:R=binornd(N,P):在该函数中N和P为二项分布的两个参数,返回服从参数为N和P的二项分布随机数。R=binornd(N,P,M):在该函数中参数M指定随机数的个数,与返回结果R同维数。 <2>泊松分布 在MATLAB中,使用函数poissrnd()产生泊松分布的随机数据。该函数的调用方式如下:R=poissrnd(LAMBDA):在该函数中LAMBDA为泊松分布的参数,返回服从参数为LAMBDA的泊松分布随机数,其中R与LAMBDA维数相同。R=poissrnd(LAMBDA,M,N):在该函数中LAMBDA为泊松分布的参数

精密软件检波

我只是一个虾纸丫 提交于 2020-02-02 00:17:51
对于电磁AI组别,如何能够从车模周围电磁传感器获得磁场精确信息是提高车模稳定性的关键。 通常情况下20kHz的低频交变磁场信息是通过10mH的工字型电感,适配以6.2nF的谐振电容检测的。该信号在经过三极管或者普通运放的放大之后送入检波电路完成幅值的检测。 3.3V单电源20kHz谐振放大电路 在推文“”中介绍了关于电磁信号放大检波中,检波二极管的死区对于检波信号的影响。下图对比了几种典型的二极管对应的检波曲线,对于使用肖特基二极管进行全波检波电路,在感应电压大于0.1V之后,检波电压与交流信号复制之间线性很好。当输入信号的幅值小于0.1V时,检波电压出现明显的衰减。 不同二极管进行20kHz检波曲线 为了消除二极管死去的影响,对于交流信号也可以直接进行软件采样然再通过软件完成幅值的检测。 下图是对20kHz的交变信号,通过单片机ADC转换之后,通过DMA送入内存之后的256个数据。 直接采样得到20kHz的交流信号数据 对于采集的信号,通过计算信号中交流成分的能量,并开根号获得信号的幅值信息。具体公式如下: 使用Fluke45万用表的交流档测量相同的信号,对照单片机通过上述方法计算出的数值,可以看到该方法检测信号的精度。 控制信号源的强度,使得放大后的交流信号有效值从5mV开始增加,一直增加到0.9V左右,将Fluke45万用表读出的数据与单片机检测数值绘制成图表如下:

深度学习入门笔记(十三):批归一化(Batch Normalization)

…衆ロ難τιáo~ 提交于 2020-02-01 14:28:42
欢迎关注WX公众号:【程序员管小亮】 专栏——深度学习入门笔记 声明 1)该文章整理自网上的大牛和机器学习专家无私奉献的资料,具体引用的资料请看参考文献。 2)本文仅供学术交流,非商用。所以每一部分具体的参考资料并没有详细对应。如果某部分不小心侵犯了大家的利益,还望海涵,并联系博主删除。 3)博主才疏学浅,文中如有不当之处,请各位指出,共同进步,谢谢。 4)此属于第一版本,若有错误,还需继续修正与增删。还望大家多多指点。大家都共享一点点,一起为祖国科研的推进添砖加瓦。 文章目录 欢迎关注WX公众号:【程序员管小亮】 专栏——深度学习入门笔记 声明 深度学习入门笔记(十三):批归一化(Batch Normalization) 1、归一化(BN)网络的激活函数 2、将BN拟合进神经网络 3、BN为什么奏效? 4、测试时的 Batch Norm 推荐阅读 参考文章 深度学习入门笔记(十三):批归一化(Batch Normalization) 深度学习100问之深入理解Batch Normalization(批归一化) Batch Normalization简称BN。 1、归一化(BN)网络的激活函数 在深度学习兴起后,最重要的一个思想是它的一种算法,叫做 批归一化(BN) ,由 Sergey loffe 和 Christian Szegedy 两位研究者创造。 Batch

吴恩达深度学习课程笔记-8

﹥>﹥吖頭↗ 提交于 2020-02-01 00:11:10
03. 结构化机器学习项目 第二周 机器学习策略(二) 2.1 误差分析 前面提到,对于模型错误率高于人类错误率的,可以采取误差分析等方法改进。比如,将分类模型分类错误的样本拎出来看看,找找主要原因,找找提升空间更大的改进方向,而不是自己瞎猜盲干。 吴恩达老师给出的方法:抽取一部分模型出错的样本,比如100个,挨个查看分析原因,列一个表格统计不同原因下的样本数。 图像 原因1 原因2 ... 备注 1 √ ... 2 √ 3 √ √ ... 百分比 可以在逐个查看的过程中添加新的原因。显然,那些占百分比更高的原因有着更大的提升空间。 2.2 数据标注错误 在上面误差分析的过程中可能会发现一些标签错误的样本,如何处理? 深度学习方法对于训练集中的随机错误标签具有非常高的鲁棒性,尤其在训练样本很多的时候,这部分错误标签产生的影响微乎其微;而系统错误,比如所有的白狗都被标记为猫,产生的影响不可忽略; 对于验证集中的错误标签,可以在前面那个表格中增加一列进行统计,判断错误标签是否对模型准确率产生了较大的影响,如果是,那就要花时间纠正这些错误,否则没必要; 注意,验证集和测试集要采取同样的处理方法,确保有相同的分布; 2.3 快速搭建一个系统 如果是从头开始一个项目,不要先考虑太多问题,不要先考虑太多改进措施,先快速搭建一个系统,开始迭代,根据结果再采取误差分析

李宏毅机器学习笔记(2)— bias and variance

这一生的挚爱 提交于 2020-01-30 22:03:43
Where does the error come from? 由下图可以看到,更加复杂的模型不一定就能够在testing data 上有更好的表现。 testing data 的average error 是由 bias 和 variance 组成的,这里的 bias 实际上就是指整个估测中心的偏差,而 variance 恰好对应了估测值距离他们中心的离散程度。这两个概念实际上和数理统计中的期望和方差相对应。 从下图可以看到,当使用不同次数的model时,显然右侧的函数对于不同的数据更加散乱,一次的 function 相较于五次的 function更加集中(也就是有更低的方差)。 接下来对他们的 bias 进行考察。下图是对不同的数据组进行训练得到的多条一次函数模型(左图),与五次函数的模型(右图)。可以发现,一次函数的集中程度很高(有低方差),但是这些函数的平均函数(左图直线)与实际上的真实函数有一定的 bias。 而右图的五次的 function,它有较大的方差,但是将他们的参数平均后的五次函数与真实函数十分接近,也就是说髙次函数有可能会有更大的方差,但是有更小的bias。 可以得到如下结论:①如果模型不能很好地适应training data,这说明它有较大的bias,这称为“欠拟合”,即“Underfitting”。 ②如果模型能够适应training data

Batch Normalization 批量标准化

喜欢而已 提交于 2020-01-26 10:12:10
本篇博文转自:https://www.cnblogs.com/guoyaohua/p/8724433.html  Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个 经验领先于理论分析 的偏经验的一门学问。本文是对论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》的导读。   机器学习领域有个很重要的假设: IID独立同分布假设 ,就是假设训练数据和测试数据是满足相同分布的,这是通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障。那BatchNorm的作用是什么呢? BatchNorm就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布的。   接下来一步一步的理解什么是BN。   为什么深度神经网络 随着网络深度加深,训练起来越困难,收敛越来越慢? 这是个在DL领域很接近本质的好问题。很多论文都是解决这个问题的,比如ReLU激活函数,再比如Residual Network,BN本质上也是解释并从某个不同的角度来解决这个问题的。 一、

01

痴心易碎 提交于 2020-01-26 05:42:22
基础理论 bias-variance tradeoff(偏差和方差的权衡) 对于线性回归,目标方程式可以写作: 对y的估计可以写成: 就是对自变量和因变量之间的关系进行的估计。一般来说,我们无法得到自变量和因变量之间的真实关系f(x)。对其之间的关系进行假设,由于存在误差,所以无法得到真正的关系。 通常情况下会使用一组训练数据,使用某个算法进行学习,然后学得一个模型,这个模型使损失函数最小。 损失函数为: 由于模型需要有泛化能力,也就是说需要模型在所有数据上都表现的良好。假设具有全部的数据,将这些数据分成N组,将这N组数据在模型上进行测试,就会得到N个不同的损失函数,如果这些损失函数的平均值最小,也就是真实数值和估计数值之间的差的平方的期望值最小,那么该模型就是理想模型。 所以真实数值和估计数值之间的差的平方的期望值公式如下: bias(偏差) 偏差是指由于错误的假设导致的误差,比如说我们假设有一个自变量能影响因变量,但其实有三个;又比如我们假设自变量和因变量之间是县西宫关系,但其实是非线性关系。其描述的是期望估计值和真实规律之间的差异。 variance(方差) 方差是指通过N组训练数据学习拟合出来的结果之间的差异。其描述的是估计值与平局估计值之间差异平方的期望。 来源: CSDN 作者: song吖 链接: https://blog.csdn.net/qq_35382702

sklearn中的PCA模型

蹲街弑〆低调 提交于 2020-01-25 01:01:37
sklearn中提供了较为丰富的PCA模型来解决数据的降维问题,其包括: (1)PCA:最原始的PCA算法; (2)TruncatedSVD:原始数据不做中心化处理的PCA算法,可用于文本数据(TF-IDF处理后)的隐藏语义分析(LSA); (3)SparsePCA:添加L1正则化处理后的PCA算法,用最小角回归算法求解,可在一定程度上解决数据噪声的问题,进一步降低分解后的数据维度; (4)MiniBatchSparsePCA:添加L1正则化处理后PCA算法,基于小批量数据的PCA算法。 (5)IncrementalPCA:增量学习的PCA算法,通过partial_fit解决数据量过大情况下内存限制的问题。 (6)KernelPCA:样本协方差矩阵中的元素均为样本内积,因此可利用核技巧,将其它应用到非线性空间上。 本文仅详细介绍最原始的PCA算法。 1. 模型的主要参数 模型参数 Parameter含义 备注 n_components 主成分数 用于空值分解后的目标维度,其可选值包括:1.整数,指定具体的值;2. 百分比,分解后的维度包含的信息量(方差)必须大于原始信息量*百分比;3. 'mle'采用极大似然估计法,预估目标维度;4.None, 默认为数据特征数目和数据行数中最小的那个值,注意当solver为'arpack',还需在上述值基础上减1; whiten 白化 布尔值

高等数理统计(五)

有些话、适合烂在心里 提交于 2020-01-24 23:47:04
引言   【比较官方的简介】数理统计学是一门以 概率论为基础 ,应用性很强的学科。它研究怎样以有效的方式收集、 整理和分析带有随机性的数据,以便对所考察的问题作出正确的推断和预测,为采取正确的决策和行动提供依据和建议。数理统计不同于一般的资料统计,它更侧重于应用随机现象本身的规律性进行资料的收集、整理和分析。   【简单的讲】,就是 通过样本分析来推断整体。   【意义或者重要性】在这个大数据时代,数据是非常重要的。怎样挖掘数据内部的规律或者隐含的信息,变得尤为重要。当时我们是不可能获得整体的数据的,所以我们只能通过抽取样本,进而通过样本来推断整体的规律。   【目录】    第一章、样本与统计量      一、引言:      二、总体与样本:      三、统计量:      四、常用分布:    第二章、参数估计     一、引言:      二、点估计—— 矩估计法 :     三、点估计—— 极大似然估计 :     四、估计量的优良性准则     五、区间估计——正态分布        1、引入       2、 单个正态总体参数的区间估计        3、两个正态总体的区间估计     六 、区间估计——非正态分布:       1、大样本正态 近似法       2、二项分布       3、泊松分布    第三章、假设检验     一、引言:     二

cnn-过拟合(over-fitting)

狂风中的少年 提交于 2020-01-21 08:30:10
概念 为了得到一致假设而使假设变得过度严格称为过拟合[1] 给定一个假设空间H,一个假设h属于H,如果存在其他的假设h’属于H,使得在训练样例上h的错误率比h’小,但在整个实例分布上h’比h的错误率小,那么就说假设h过度拟合训练数据。 过拟合的示意图: 在上图中训练样本存在噪声,为了照顾它们,分类曲线的形状非常复杂,导致在真实测试时会产生错分类. 直白理解:在神经网络中,首先根据训练数据集进行训练,训练结果的好坏,通过一个损失函数的对预测值和实际真实值进行判断,当预测值和真实值对比,损失最小时,即拟合的很好,则训练的结果OK,如上图,蓝色的分类和红色的分类,通过复杂的曲线,完全在训练集上分类准确。其实用这个曲线去分类或预测实际(测试)数据集时,则会出现不准确的现象,则这种情况就是过拟合。如下图: 上图a,在训练集上,中间的虚线,已完全分开了小圆点和三角形,但是在测试集上(上图b),虚线还是把原点分类到了三角形这边。 表1 过拟合与欠拟合的判断标准 过拟合原因 (1)建模 样本 选取有误,如样本数量太少,选样方法错误,样本标签错误等,导致选取的样本数据不足以代表预定的分类规则; (2)样本噪音干扰过大,使得机器将部分噪音认为是特征从而扰乱了预设的分类规则; (3)假设的模型无法合理存在,或者说是假设成立的条件实际并不成立; (4)参数太多,模型复杂度过高; (5)对于 决策树 模型