随机变量

随机过程学习笔记0

…衆ロ難τιáo~ 提交于 2020-02-03 00:04:32
随机过程的定义 随机变量:从样本空间到实数域的当时的映射; 样本空间:随机试验所有可能的结果; 在之前的概率论中,无论是中心极限定理还是大数定理,研究的都是一些相互独立的随机变量之间的关系和他们的统计特性。而随机过程所研究的是一族随机变量,且相互之间不是独立的。 对定义的理解: 随机变量族:随t变化的一族(无穷个)随机变量,且随机变量之间彼此有一定的关系,这个关系体现在t变化时,他们之间存在关系,可能时线性的,也可能是非线性的,即一族相互关联的随机变量构成了一个随机过程。例4中质点在直线上的随机游走,小虫在直线上的固定跳动,奇数偶数的讨论,充分说明了随机变量之间的关联性。 T:称为指标集或参数集,一般表示时间或空间;T是一个离散的可列集时,随机过程叫随机序列。 随机过程的描述:X(t,w)或 X(t),w表示一个样本点。 固定t,X(t,w)就是一个定义在样本空间Ω上的函数,即为一随机变量,取遍所有t,就是一族有关联的随机变量; 固定w,X(t,w)是一个关于参数t的确定函数,叫样本函数。即表示固定w,做了一次试验,取遍过程中的t,做了n次实验,也叫随机过程的一次实现,对随机过程观测了一遍。所有样本函数的集合确定了一个随机过程,如果能获得所有的样本函数,则随机过程的统计特性确定,但显然很多时候是不现实的。因此需要随机过程的数字特征和统计特性描述。 随机过程的分类 状态空间

概率论——超几何随机变量

╄→尐↘猪︶ㄣ 提交于 2020-01-30 13:20:14
文章目录 超几何随机变量 1 定义 2 超几何随机变量的近似 3 参数为 ( n , N , m ) (n,N,m) ( n , N , m ) 的超几何随机变量的期望和方差 超几何随机变量 1 定义   假定一个袋子里面有 N N N 个球,其中有 m m m 个白球, N − m N-m N − m 个黑球,现在随机地从袋子中 不放回 地取出 n n n 个球,令随机变量 X X X 表示取出来的白球数,则: P { X = i } = ( m i ) ( N − m n − i ) ( N n ) i = 0 , 1 , ⋯   , n P\{X = i\} = \cfrac{\begin{pmatrix}m\\i\end{pmatrix}\begin{pmatrix}N-m\\n-i\end{pmatrix}}{\begin{pmatrix}N\\n\end{pmatrix}}\ \ \ \ \ \ \ i = 0,1,\cdots,n P { X = i } = ( N n ​ ) ( m i ​ ) ( N − m n − i ​ ) ​ i = 0 , 1 , ⋯ , n 一个随机变量 X X X 如果其概率质量函数形如上式,其中 N , m , n N,m,n N , m , n 值给定,那么就称 X X X 为超几何随机变量 。   注意, i i i

互信息(Mutual Information)

戏子无情 提交于 2020-01-30 00:52:16
  本文根据以下参考资料进行整理:   1.维基百科: https://zh.wikipedia.org/wiki/%E4%BA%92%E4%BF%A1%E6%81%AF   2.新浪博客: http://blog.sina.com.cn/s/blog_6255d20d0100ex51.html   在概率论和信息论中,两个随机变量的互信息(Mutual Information,简称MI)或转移信息(transinformation)是变量间相互依赖性的量度。不同于相关系数,互信息并不局限于实值随机变量,它更加一般且决定着联合分布 p(X,Y) 和分解的边缘分布的乘积 p(X)p(Y) 的相似程度。互信息(Mutual Information)是度量两个事件集合之间的相关性(mutual dependence)。互信息是点间互信息(PMI)的期望值。互信息最常用的单位是bit。 1.互信息的定义   正式地,两个离散随机变量 X 和 Y 的互信息可以定义为:   其中 p(x,y) 是 X 和 Y 的 联合概率分布函数 ,而p(x)和p(y)分别是 X 和 Y 的 边缘概率 分布函数。   在 连续随机变量 的情形下,求和被替换成了 二重定积分 :   其中 p(x,y) 当前是 X 和 Y 的联合概率密度函数,而p(x)和p(y)分别是 X 和 Y 的边缘概率密度函数。  

概率论——伯努利和二项随机变量

£可爱£侵袭症+ 提交于 2020-01-29 04:12:40
文章目录 1 伯努利随机变量 2 二项随机变量 3 二项随机变量的性质 4 二项随机变量的分布函数 1 伯努利随机变量   对于一个试验,我们将其结果分为两类,成功或失败,当试验结果为成功时 X = 1 X=1 X = 1 ,试验结果失为败时 X = 0 X=0 X = 0 。这样,随机变量 X X X 的概率质量函数为: p ( 0 ) = P { X = 0 } = 1 − p p ( 1 ) = P { X = 1 } = p p(0) = P\{X=0\}=1-p \\ p(1) = P\{X=1\}=p p ( 0 ) = P { X = 0 } = 1 − p p ( 1 ) = P { X = 1 } = p 其中 0 ≤ p ≤ 1 0\le p \le 1 0 ≤ p ≤ 1 是每次试验成功的概率。如果随机变量的概率质量函数为上式的形式,那么就称 X X X 为 伯努利随机变量 。 2 二项随机变量   现在对于上述试验,假设进行 n n n 次 独立的 重复试验,每次试验成功的概率为 p p p ,失败的概率为 1 − p 1-p 1 − p 。现在我们令随机变量 X X X 表示 n n n 次试验中成功的次数,那么此时就称 X X X 为参数是 ( n , p ) (n,p) ( n , p ) 的二项随机变量 ,因此伯努利随机变量也是参数为 ( 1 , p

大数定律

女生的网名这么多〃 提交于 2020-01-25 18:36:22
定义:设 \(X_{n}\) 是一个随机变量序列, \(X\) 为一个随机变量,如果对于任意的 \(\varepsilon > 0\) ,有 \(lim_{n \rightarrow \infty}P\{|X_n -X| \geq \varepsilon \}=0\) 称随机变量序列 \({X_n}\) 依概率收敛于随机变量X 以上的例子说明一般按分布收敛与依概率收敛是不等价的.而下面的定理则说明:当极限随机变量为常数时,按分布收敛与依概率收敛是等价的. \(X_{n} \stackrel{P}{\longrightarrow} X \Rightarrow X_{n} \stackrel{L}{\longrightarrow} X\) \(X_{n} \stackrel{P}{\longrightarrow} a \Leftrightarrow X_{n} \stackrel{L}{\longrightarrow} a\) 来源: https://www.cnblogs.com/zonghanli/p/12233248.html

应该要知道的几个统计学定义.

谁说我不能喝 提交于 2020-01-24 23:43:37
//我们先来看一下几个名词基本解释. 1.标准差(Standard deviation) 简单来说,标准差是一组数值自平均值分散程度的一种测量观念.一个较大的标准差,代表大部分的数值和其平均值之间差异较大,一个较小的标准差,代表这些数值较接近平均值. 公式: 例如: 两组数的集合 {0, 5, 9, 14} 和 {5, 6, 8, 9} 其平均值都是7,但第二个集合具有较小的标准差. 标准差可以当作不确定性的一种测量.例如在物理科学中,做重复性测量时,测量数值集合的标准差代表这些测量的精确度.当要决定测量值是否符合预测值,测量值的标准差占有决定性重要角色.如果测量平均值与预测值相差太远(同时与标准差数值做比较) 则认为测量值与预测值互相矛盾.这很容易理解,因为如果测量值都落在一定数值范围之外,可以合理推论预测值是否正确. 标准差应用于投资上,可作为量度回报稳定性的指标.标准差数值越大,代表回报远离过去平均数值,回报较不稳定故风险越高.相反,标准差数值越小,代表回报较为稳定,风险亦较小. 例如: A,B两组各有6位学生参加同一次语文测验,A组的分数为95,85,75,65,55,45  B组的分数为73,72,71,69,68,67.这两组的平均数都是70,但A组的标准差为17.078分,B组的标准差为2.160分,说明A组学生之间的差距要比B组学生之间的差距大得多. 2.方差.

【概率论与数理统计】小结6 - 大数定理与中心极限定理

可紊 提交于 2020-01-24 23:42:44
注 :这两个定理可以说是概率论中最重要的两个定理。也是由于中心极限定理的存在,使得正态分布从其他众多分布中脱颖而出,成为应用最为广泛的分布。这两个定理在概率论的历史上非常重要,因此对于它们的研究也横跨了几个世纪(始于18世纪初),众多耳熟能详的大数学家都对这两个定理有自己的贡献。因此,这两个定理都不是单一的定理。不同的大数定理和中心极限定理从不同的方面对相同的问题进行了阐述,它们条件各不相同,得到的结论的强弱程度也不一样。 1. 大数定理(law of large numbers,LLN) 图1-1,伯努利(1655-1705) 大数定律可以说是整个数理统计学的一块基石,最早的大数定律由伯努利在他的著作《推测术》中提出并给出了证明。这本书出版于伯努利去世后的1713年。数理统计学中包含两类重要的问题——对概率p的检验与估计。大数定律的本质是一类极限定理,它是由概率的统计定义“频率收敛于概率”引申而来的。简单来说就是n个独立同分布的随机变量的观察值的均值$\bar{X}$依概率收敛于这些随机变量所属分布的理论均值,也就是总体均值。 举一个古典概率模型的例子:拿一个盒子,里面装有大小、质地一样的球a+b个,其中白球a个,黑球b个。这时随机地从盒子中抽出一球(意指各球有同等可能被抽出),则“抽出的球为白球”这一事件A的概率p=a/(a+b).但是如果不知道a、b的比值,则p也不知道

正态分布及正态随机变量

坚强是说给别人听的谎言 提交于 2020-01-22 10:17:16
正态分布是连续型随机变量概率分布中的一种,你几乎能在各行各业中看到他的身影,自然界中某地多年统计的年降雪量、人类社会中比如某地高三男生平均身高、教育领域中的某地区高考成绩、信号系统中的噪音信号等,大量自然、社会现象均按正态形式分布。 正态分布中有两个参数,一个是随机变量的均值 μμ,另一个是随机变量的标准差 σσ,他的概率密度函数 PDF 为:fX(x)=1√2πσe−(x−μ)2/(2σ2)fX(x)=12πσe−(x−μ)2/(2σ2)。 当我们指定不同的均值和标准差参数后,就能得到不同正态分布的概率密度曲线,正态分布的概率密度曲线形状都是类似的,他们都是关于均值 μμ 对称的钟形曲线,概率密度曲线在离开均值区域后,呈现出快速的下降形态。 这里,我们不得不专门提一句,当均值 μ=0μ=0,标准差 σ=1σ=1 时,我们称之为标准正态分布。 还是老规矩,眼见为实,下面来观察两组正态分布的概率密度函数取值,一组是均值为 00,标准差为 11 的标准正态分布。另一组,我们取均值为 11,标准差为 22。 代码片段: from scipy.stats import norm import matplotlib.pyplot as plt import numpy as np import seaborn seaborn.set() fig, ax = plt.subplots(1, 1

贝叶斯决策理论(1)

自闭症网瘾萝莉.ら 提交于 2020-01-19 06:13:12
  数据来自于一个不完全清楚的过程。以投掷硬币为例,严格意义上讲,我们无法预测任意一次投硬币的结果是正面还是反面,只能谈论正面或反面出现的概率。在投掷过程中有大量会影响结果的不可观测的变量,比如投掷的姿势、力度、方向,甚至风速和地面的材质都会影响结果。也许这些变量实际上是可以观测的,但我们对这些变量对结果的影响缺乏必要的认知,所以退而求其次,把投掷硬币作为一个随机过程来建模,并用概率理论对其进行分析。      概率有时也被解释为频率或可信度,但是在日常生活中,人们讨论的概率经常包含着主观的因素,并不总是能等同于频率或可信度。比如有人分析中国足球队打进下次世界杯的概率是10%,并不是说出现的频率是10%,因为下次比赛还没有开始。我们实际上是说这个结果出现的可能性,由于是主观的,因此不同的人将给出不同的概率。   在数学上,概率研究的是随机现象背后的客观规律。我们对随机没有兴趣,感兴趣的是通过大量随机试验总结出的数学模型。当某个试验可以在完全相同的条件下不断重复时,对于任意事件E(试验的可能结果的集合,事件是集合,不是动作),结果在出现在E中的次数占比趋近于某个常量,这个常数极限是事件E的概率,用P(E)表示。   我们需要对现实世界建模,将现实世界的动作映射为函数,动作结果映射为数。比如把投硬币看作f(z),z是影响结果的一系列不可观测的变量,x 表示投硬币的结果,x = f(z)

用函数来描述概率

天大地大妈咪最大 提交于 2020-01-18 18:56:00
1、引入随机变量 样本空间内的概率事件都能定义唯一的一个数与之对应,把事件数字化,这些数也变得有概率性。这些数就是随机变量。 当把随机变量定义为数轴上的一个数时,我们也称之为一维随机变量。用大写的X表示。 当研究一维随机变量X时,引入随机变量的分布函数。 2、随机变量的分布 对于数轴上的某个数,研究其分布时就引入了该函数式:(x表示数轴上的数) p={X<=x} 这个函数式表达的是: 当数轴上的全体实数x(小写x)从负无穷向正无穷移动时,通过不等式X<=x计算出的值就是随机变量X不断出现的概率值。 当移动的过程中,X随机变量出现的概率由不可能(概率=0)变为必然(概率=1) 随机变量的分布函数 F(x) = p{X<=x} x取值为负无穷到正无穷,取遍整个实数集。 连续型随机变量某个点的概率值是测不出来的,其概率密度函数的积分为0; 一般情况下,概率分布函数用F(大写F)表示,概率密度函数用f(小写f)表示。 概率分布函数和概率密度函数的自变量都是数轴上的数。 连续型随机变量的分布函数是累加函数 与离散型随机变量分布不同,连续型随机变量的分布的某点分布是无意义的,其值为积分值。也要区别与离散随机变量的分布律。 概率分布函数 = 概率密度函数的定积分 3、常见随机变量分布类型 一、伯努利一次实验(0-1分布) 二、伯努利n次实验(二项分布) 三、伯努利首中即停止实验(几何分布) 四