样本方差

数学期望、方差、标准差、协方差

a 夏天 提交于 2019-12-29 01:51:46
数学期望 数学期望E(x)完全由随机变量X的概率分布所确定,若X服从某一分布,也称E(x)是这一分布的数学期望。 数学期望的定义是实验中每次可能的结果的概率乘以其结果的总和。 离散型随机量的数学期望 定义:离散型随机变量的所有可能取值 xixi 与其对应的概率 P(xi) 乘积的和为该离散型随机量的数学期望,记为 E(X)。 公式: E(X)=∑i=1nxiPi 连续型随机量的数学期望 定义:假设连续型随机变量 XX的概率密度函数为 f(x),如果积分∫+∞−∞xf(x)dx绝对收敛,则称这个积分的值为连续型随机量的数学期望,记为 E(X)。 公式: E(X)=∫+∞−∞xf(x)dx 数学期望的性质 设C为常数: E(C)==C 设C为常数: E(CX)==CE(X) 加法:E(X+Y)==E(X)+E(Y) 当X和Y相互独立时,E(XY)=)=E(X)E(Y) (主意,X和Y的相互独立性可以通过下面的“协方差”描述) 数学期望的意义 根据“大数定律”的描述,这个数字的意义是指随着重复次数接近无穷大时,数值的算术平均值几乎肯定收敛于数学期望值,也就是说数学期望值可以用于预测一个随机事件的平均预期情况。 方差 数学期望给出了随机变量的平均大小,现实生活中我们还经常关心随机变量的取值在均值周围的散布程度,而方差就是这样的一个数字特征。 方差有两个定义,一个是统计学的定义

python实现参数估计-置信区间

本秂侑毒 提交于 2019-12-28 13:13:07
一、关于体温、性别、心率的临床数据 对男性体温抽样计算下95%置信区间总体均值范围。转自: https://www.jianshu.com/p/a3efca8371eb import pandas as pd import numpy as np import seaborn as sns import matplotlib.pyplot as plt #读取数据 df = pd.read_csv('http://jse.amstat.org/datasets/normtemp.dat.txt', header = None,sep = '\s+' ,names=['体温','性别','心率']) #选取样本大小,查看数据 np.random.seed(42) #df.describe() #样本量为90,查看样本数据 df_sam = df.sample(90) df_sam.head() #计算抽取样本中男士体温的均值 df3 = df_sam.loc[df_sam['性别']==1] df3['体温'].mean() #重复抽取样本,计算其他样本中男士体温的均值,得到抽样分布 boot_means = [] for _ in range(10000): bootsample = df.sample(90, replace=True) mean = bootsample

深度学习之Batch Normalization

China☆狼群 提交于 2019-12-27 10:11:30
在机器学习领域中,有一个重要的假设:独立同分布假设,也就是假设训练数据和测试数据是满足相同分布的,否则在训练集上学习到的模型在测试集上的表现会比较差。而在深层神经网络的训练中,当中间神经层的前一层参数发生改变时,该层的输入分布也会发生改变,也就是存在内部协变量偏移问题(Internal Covariate Shift),从而造成神经层的梯度消失,模型收敛过慢的问题。 Batch Normalization(BN,批量标准化)就是一种解决内部协变量偏移问题的方法,它通过对神经网络的中间层进行逐层归一化,让每一个中间层输入的分布保持稳定,即保持同一分布。 下面从以下四个方面来深入理解Batch Normalization的原理。 1、内部协变量偏移问题 2、训练时的Batch Normalization 3、推断时的Batch Normalization 4、Batch Normalization的优点 一、内部协变量偏移问题 1、内部协变量偏移问题的产生 在传统机器学习中,一个常见的问题是协变量偏移(Covariate Shift),大致的意思就是数据会随着时间而变化,用旧数据训练好的模型去预测新数据时,结果可能会不准确。输入数据可以看做是协变量,机器学习算法要求输入数据在训练集和测试集上满足同分布,这样把模型用来预测新的数据,才能有较好的结果。 而深层神经网络中的内部协变量偏移

协方差矩阵

删除回忆录丶 提交于 2019-12-26 07:31:05
一、统计学的基本概念 统计学里最基本的概念就是样本的均值、方差、标准差。首先,我们给定一个含有n个样本的集合,下面给出这些概念的公式描述: 均值: 标准差: 方差: 均值描述的是样本集合的中间点,它告诉我们的信息是有限的,而标准差给我们描述的是样本集合的各个样本点到均值的距离之平均。 以这两个集合为例,[0, 8, 12, 20]和[8, 9, 11, 12],两个集合的均值都是10,但显然两个集合的差别是很大的,计算两者的标准差,前者是8.3后者是1.8,显然后者较为集中,故其标准差小一些,标准差描述的就是这种“散布度”。之所以除以n-1而不是n,是因为这样能使我们以较小的样本集更好地逼近总体的标准差,即统计上所谓的“无偏估计”。而方差则仅仅是标准差的平方。 二、为什么需要协方差 标准差和方差一般是用来描述一维数据的,但现实生活中我们常常会遇到含有多维数据的数据集,最简单的是大家上学时免不了要统计多个学科的考试成绩。面对这样的数据集,我们当然可以按照每一维独立的计算其方差,但是通常我们还想了解更多,比如,一个男孩子的猥琐程度跟他受女孩子的欢迎程度是否存在一些联系。协方差就是这样一种用来度量两个随机变量关系的统计量,我们可以仿照方差的定义: 来度量各个维度偏离其均值的程度,协方差可以这样来定义: 协方差的结果有什么意义呢?如果结果为正值,则说明两者是正相关的(从协方差可以引出

协方差及协方差矩阵

本小妞迷上赌 提交于 2019-12-26 00:14:14
一、统计学的基本概念   统计学里最基本的概念就是样本的均值、方差、标准差。首先,我们给定一个含有n个样本的集合,下面给出这些概念的公式描述: 均值: 标准差: 方差:   均值描述的是样本集合的中间点,它告诉我们的信息是有限的,而标准差给我们描述的是样本集合的各个样本点到均值的距离之平均。   以这两个集合为例,[0, 8, 12, 20]和[8, 9, 11, 12],两个集合的均值都是10,但显然两个集合的差别是很大的,计算两者的标准差,前者是8.3后者是1.8,显然后者较为集中,故其标准差小一些,标准差描述的就是这种“散布度”。之所以除以n-1而不是n,是因为这样能使我们以较小的样本集更好地逼近总体的标准差,即统计上所谓的“无偏估计”。而方差则仅仅是标准差的平方。 二、为什么需要协方差   标准差和方差一般是用来描述一维数据的,但现实生活中我们常常会遇到含有多维数据的数据集,最简单的是大家上学时免不了要统计多个学科的考试成绩。面对这样的数据集,我们当然可以按照每一维独立的计算其方差,但是通常我们还想了解更多,比如,一个男孩子的猥琐程度跟他受女孩子的欢迎程度是否存在一些联系。协方差就是这样一种用来度量两个随机变量关系的统计量,我们可以仿照方差的定义:   来度量各个维度偏离其均值的程度,协方差可以这样来定义:   协方差的结果有什么意义呢?如果结果为正值,则说明两者是正相关的

偏差-方差分解

雨燕双飞 提交于 2019-12-23 16:38:11
当训练得到一个模型\(f\)时,我们希望\(f\)的泛化能力足够强,这样也代表它对于新的样本有比较好的预测能力。我们会通过实验检验\(f\)的泛化误差,那它的泛化误差到底是由哪几部分贡献? 这里先给出结论:噪声、偏差与方差。 定义 训练模型的前提是我们能拿到一个数据集\(D\),它其中包含多个样本,来自同一个分布。但是\(D\)不可能包含这个分布上的所有样本,也就是说\(D\)本身是总体的一个子集。 在总体中取相同数量的样本组成不同的\(D_i\),用同一个算法训练得到的模型也会不同。所以训练得到的模型针对某一个样本\(x\)的预测值有一个期望的概念。即: \[ \begin{equation} \overline{f}(\boldsymbol{x})=\mathbb{E}_{D}[f(\boldsymbol{x} ; D)] \end{equation} \] 这里\(D\)是来自同一个分布样本数量相同的不同训练集,它是一个变量的概念。不同的\(D_i\)训练得到不同的模型\(f_i\)。使用它们预测\(x\),再对预测的值取期望就是(1)式的含义。\(\overline{f}(\boldsymbol{x})\)是模型对样本\(x\)预测的期望值。 所以也就有一个 方差 的概念,即不同模型\(f_i\)对于\(x\)的预测值的波动情况。如果是回归任务的话

统计学第八周:参数统计

你离开我真会死。 提交于 2019-12-22 18:32:19
统计学:参数估计 概念 1.利用总体统计不方便甚至是无法完成的现实状况,采用抽样的方式,利用样本提供的信息来推断总体的特征。 2.点估计:point estimate, 用样本统计量的某个取值直接作为总体参数的估值。 但一个点估计值的可靠性是由它的抽样标准误差来衡量的,这表明一个具体的点估计值无法给出估计的可靠性的度量。 当围绕点估计值构造总体参数的一个区间,这就是区间估计。 3.区间估计:interval estimate ,在点估计的基础上,给出总体参数估计的一个区间范围,该区间通常由样本统计量加减估计误差得到。 根据样本统计量的抽样分布可以对样本统计量与总体参数的接近程度给出一个概率度量。 在区间估计中,由样本统计量所构成的总体参数的估计区间称为置信区间,其中区间的最小值称为置信下限,最大值称为置信上限。 置信水平:将构造置信区间的步骤重复多次,置信区间中包含总体参数真值的次数所占的比例,称为置信水平 confidence level ,也称为置信度或置信系数。 如果用某种方法构造的所有区间中有95%的区间包含总体参数的真值,5%的区间不包括总体参数的真值,那么用该方法构造的区间称为置信水平位95%的置信区间。 评价估计量的标准 🔽无偏性:指估计量抽样分布的数学期望等于被估计的总体参数。 设 总 体 参 数 位 θ , 所 选 择 的 估 计 量 为 θ ⃗ , 如 果 E

为什么样本方差(sample variance)的分母是 n-1?

﹥>﹥吖頭↗ 提交于 2019-12-15 17:21:13
总体方差 ,也叫做有偏估计,其实就是我们从初高中就学到的那个标准定义的方差: ,其中, 为总体的均值, 为总体的标准差, 为总体的样本数。 样本方差, 无偏方差,在实际情况中,总体均值 是很难得到的,往往通过抽样来计算,于是有样本方差,计算公式如下: 或者 ,其中, 为样本的均值, 为样本的标准差, 为样本的个数。 实际操作中,我们一般通过抽样来验证总体。就会面临以下两种情况: (总体的均值)已知 即无偏估计,方差 (总体的均值)未知 即有偏估计,此时, 如果直接使用 作为估计,那么你会倾向于低估方差! 这是因为 换言之,除非正好 ,否则我们一定有 ,而不等式右边的那位才是的对方差的“正确”估计! 那么,在不知道随机变量真实数学期望的前提下,如何“正确”的估计方差呢?答案是把上式中的分母 换成 ,通过这种方法把原来的偏小的估计“放大”一点点,我们就能获得对方差的正确估计了: 那么,至于为什么分母是 而不是 或者别的什么数呢? 即证明 来源: CSDN 作者: 虾nen nen 链接: https://blog.csdn.net/huangguohui_123/article/details/103547309

movvar移动方差

南笙酒味 提交于 2019-12-15 04:42:15
movvar 移动方差 全页折叠 语法 M = movvar(A,k) M = movvar(A,[kb kf]) M = movvar( ___ ,w) M = movvar( ___ ,w,dim) M = movvar( ___ ,nanflag) M = movvar( ___ ,Name,Value) 说明 示例 M = movvar( A , k ) 返回由局部 k 个数据点的 方差 值组成的数组,其中每个方差基于 A 的相邻元素的长度为 k 的移动窗口计算得出。当 k 为奇数时,窗口以当前位置的元素为中心。当 k 为偶数时,窗口以当前元素及其前一个元素为中心。当没有足够的元素填满窗口时,窗口将自动在端点处截断。当窗口被截断时,只根据窗口内的元素计算方差。 M 与 A 的大小相同。 如果 A 是向量, movvar 将沿该向量的长度运算。 如果 A 为多维数组,则 movvar 沿大小不等于 1 的第一个数组维度进行运算。 示例 M = movvar( A , [kb kf] ) 通过长度为 kb+kf+1 的窗口计算方差,其中包括当前位置的元素、后面的 kb 个元素和前面的 kf 个元素。 示例 M = movvar( ___ , w ) 为上述任意语法指定归一化因子。当 w = 0 时(默认值), M 按 k-1 对 k 进行归一化。当 w = 1 时, M 按 k

总体样本方差的无偏估计样本方差为什么除以n-1

梦想与她 提交于 2019-12-14 07:00:04
总体样本方差的无偏估计样本方差为什么除以n-1 本文链接: https://blog.csdn.net/qq_16587307/article/details/81328773 我们先从最基本的一些概念入手。 如下图,脑子里要浮现出总体样本 ,还有一系列随机选取的样本 。只要是样本,脑子里就要浮现出它的集合属性,它不是单个个体,而是一堆随机个体集合。样本 是总体样本中随机抽取一系列个体组成的集合,它是总体样本的一部分。 应该把样本 和总体样本 一样进行抽象化理解,因此样本 也存在期望 和方差 。 这里有一个重要的假设,就是随机选取的样本 与总体样本同分布,它的意思就是说他们的统计特性是完全一样的,即他们的期望值一样,他们的方差值也是一样的: 另外,由于每个样本的选取是随机的,因此可以假设 不相关(意味着协方差为0,即 ),根据方差性质就有: 另外,还需要知道方差另外一个性质: 为常数。 还有一个,别忘了方差的基本公式: 以上的公式都很容易百度得到,也非常容易理解。这里不赘述。 2)无偏估计 接下来,我们来理解下什么叫无偏估计。 定义 :设统计量 是总体中未知参数 的估计量,若 ,则称 为 的 无偏估计量 ;否则称为有偏估计量。 上面这个定义的意思就是说如果你拿到了一堆样本观测值,然后想通过这一堆观测值去估计某个统计量 ,一般就是想估计总体的期望或方差