随机变量

统计-stats

为君一笑 提交于 2019-11-29 02:04:44
统计-stats SciPy的stats模块包含了多种概率分布的随机变量 [1] ,随机变量分为连续和离散两种。所有的连续随机变量都是rv_continuous的派生类的对象,而所有的离散随机变量都是rv_discrete的派生类的对象。 Footnotes [1] 本节中的随机变量是指概率论中的概念,不是Python中的变量 连续和离散概率分布 可以使用下面的语句获得stats模块中所有的连续随机变量: >>> from scipy import stats >>> [k for k,v in stats.__dict__.items() if isinstance(v, stats.rv_continuous)] ['genhalflogistic','triang','rayleigh','betaprime', ...] 连续随机变量对象都有如下方法: rvs:对随机变量进行随机取值,可以通过size参数指定输出的数组的大小。 pdf:随机变量的概率密度函数。 cdf:随机变量的累积分布函数,它是概率密度函数的积分。 sf:随机变量的生存函数,它的值是1-cdf(t)。 ppf:累积分布函数的反函数。 stat:计算随机变量的期望值和方差。 fit:对一组随机取样进行拟合,找出最适合取样数据的概率密度函数的系数。 03-scipy/scipy_stats.py 概率密度函数

概率论概念总结

你。 提交于 2019-11-28 13:52:42
随机变量   何谓随机变量?即给定样本空间 ,其上的实值函数 称为(实值)随机变量。 期望   离散随机变量的一切可能值与其对应的概率P的乘积之和称为数学 期望 方差   一个随机变量的方差(Variance)描述的是它的离散程度,也就是该变量离其期望值的距离 协方差   在概率论和统计学中用于衡量两个变量的总体误差。而 方差 是 协方差 的一种特殊情况,即当两个变量是相同的情况。 相关系数   衡量随机变量X与Y相关程度的一种方法,相关系数的取值范围是[-1,1]。相关系数的绝对值越大,则表明X与Y相关度越高。当X与Y线性 时,   相关系数取值为1(正线性相关)或-1(负线性相关)。 中心极限定理  心极限定理说明,在适当的条件下,大量相互独立 随机变量 的均值经适当标准化后 依分布收敛 于 正态分布 。这组定理是 数理统计学 和误差分析的理   论基础,指出了大量随机变量之和近似服从正态分布的条件。并且呈正态分布。 贝叶斯公式    P ( h ∣ D ) = P ( h ) P ( D ∣ h )/ P ( D ) ​    贝叶斯定理 是关于随机事件A和B的条件概率的一则定理。其中P是在B发生的情况下A发生的可能性 ,把x关于y的后验概率,转换成了y关于x的后验概率和先验概率,简单说,把不好计算的条件概率转换为好计算的条件概率 全概率公式 设实验E的样本空间为S

【论文 期望】

放肆的年华 提交于 2019-11-28 06:04:20
前置 (主要from2013年胡渊铭的论文《浅析信息学竞赛中概率论的基础与应用》 概率 什么是概率? 概率大的事情发生的可能性就大,因此概率就是对事件发生的可能性的度量 概率空间 竞赛中用到的初等概率论有三个重要成分 样本空间 \(\Omega\) , 事件集合 \(F\) 和 概率测度 \(P\) 在竞赛中往往可以认为 \(\omega\) 的每个子集都是一个事件 所有的事件集合记为 \(F\) ( \(F\) 是集合的集合) 概率测度 \(P\) 是事件集合到实数的一个函数,但需要满足下三条概率公理: (1)对于任意的事件 \(A\) ,有 \(P(A)\ge 0\) (非负性) (2) \(P(\Omega)=1\) (规范性) (3)对于事件 \(A\) 和 \(B\) ,若 \(A\cap B=\phi\) (即 \(A\) 和 \(B\) 互斥),有 \(P(A\cup B)=P(A)+P(B)\) (可加性) 我们称符合要求的三元组 \((\Omega,F,P)\) 为概率空间,eg:随机掷一个均匀的骰子,考虑其向上的面,我们有样本空间 \(\Omega=\{1,2,3,4,5,6\}\) ,"奇数向上“的事件 \(\{1,3,5\}\) ,事件集合 \(F\) 为 \(\Omega\) 的幂集(所有子集的集合),概率测度 \(P(A)=\frac{|A|}6\)

数据分析的统计基础2

99封情书 提交于 2019-11-28 01:44:18
随机变量 离散型随机变量 离散型随机变量(discrete random variable)是只取有限值或者可列无限值的随机变量,通常用 \(X\) 表示随机变量,用 \(x_i\) 表示随机变量可能的取值。 一般地,样本空间上的概率测度决定了 \(X\) 各种取值的概率;如果随机变量的取值用 \(x_1,x_2,...\) 表示,那么存在满足 \(p(x_i)=P(X=x_i)\) 和 \(\sum \limits_{i}^{}p(x_i)=1\) 的函数 \(p\) ,我们称这个函数为随机变量 \(X\) 的概率质量函数(probability mass function,pmf)或者频率函数(frequency function)。 除了频率函数,有时候利用随机变量的累计分布函数(cumulative distribution function,cdf)比较方便,它定义为: \[ F(x) = P(X \leq x) , x \in (-\infty,+\infty) \] 累计分布函数是非降的,并且满足 \[\lim \limits_{x \to -\infty}F(x) = 0\] 和 \(\lim \limits_{x \to \infty}F(x) = 1\) 伯努利分布(Bernoulli distribution) 背景 :一次试验成功与否 参数 : \(p\)

1023概率统计

独自空忆成欢 提交于 2019-11-27 19:38:42
现象 确定现象 随机现象 随机试验 定义 对随机现象的观察、记录、试验统称为随机试验 特点 (1) 试验可以在相同的条件下重复进行; (2) 每次试验的可能结果不止一个, 并且能事先明确试验的所有可能的结果; (3) 进行一次试验之前不能确定哪一个结果会出现. 在概率论中将具有上面特点的试验称为随机试验,用E表示随机试验 概念 基本事件 随机试验的每一个可能结果 样本空间S 基本事件的全体,随机试验E的所有结果构成的集合称为E的样本空间,记为S={e},称S中的元素e为基本事件或样本点. 样本点w S中的元素 复杂事件 由某些带有共同特征的基本事件所组成的事件 随机事件 定义 基本事件和复杂事件的统称 从集合论的观点看,一个随机事件A不过是样本空间S的一个子集而已,即 试验的样本空间S的子集称为的随机事件,随机事件简称事件,常用A,B,C表示 当且仅当这一子集中一个样本点出现时,称事件A发生. 事件A中所包含的某一个样本点w出现,即,试验所出现的样本点 分类 基本事件: 由一个样本点组成的单点集. 必然事件:每次试验中一定发生的事件.用S表示 不可能事件:每次试验中一定不发生的事件.用Ø表示 事件间的关系 试验E的样本空间Ω,A,B,C,AK(K=1,2,3),为试验E的事件 子事件 如果事件A发生必然导致事件B发生,则称事件B包含事件A,或称事件A是事件B的子事件,记作A⊂B或B

概率论与数理统计总结

耗尽温柔 提交于 2019-11-27 18:53:15
前置知识: \(1.\) 高中数学相关知识。 \(2.\) 高等数学(微分,定积分,不定积分,泰勒展开,极限等) 定积分常用计算方式:牛顿—莱布尼兹公式:( \(F()\) 为 \(f()\) 的原函数,即 \(F^{'}()=f()\) ) \[ \int_a^b{f(x)dx}=F(b)-F(a) \] 泰勒中值定理 \(1\) : \(f(x)=f(x_0)+f'(x_0)(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+...+\frac{f^{(n)}(x_0)}{n!}(x-x_0)^n+R_n(x)\) ,满足 \(f(x)\) 在 \(x_0\) 处有 \(n\) 阶导数, \(x\) 为 \(x_0\) 的一个邻域中的任意值, \(R_n(x)=o((x-x_0))^n\) 称为佩亚诺余项。 泰勒中值定理 \(2\) : \(f(x)=f(x_0)+f'(x_0)(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+...+\frac{f^{(n)}(x_0)}{n!}(x-x_0)^n+R_n(x)\) ,满足 \(f(x)\) 在 \(x_0\) 的某一邻域中有 \(n+1\) 阶导数, \(x\) 为 \(x_0\) 该邻域中的任意值, \(R_n(x)=\frac{f^{n+1}(\xi)}{(n+1)!}(x

从随机过程的熵率和马尔科夫稳态过程引出的一些思考 - 人生逃不过一场马尔科夫稳态

旧时模样 提交于 2019-11-26 19:21:01
1. 引言 0x1:人生就是一个马尔科夫稳态 每一秒我们都在做各种各样的选择,要吃青菜还是红烧肉、看电影还是看书、跑步还是睡觉,咋一看起来,每一个选择都是随机的,而人生又是由无数个这样的随机选择组成的结果。从这个前提往下推导,似乎可以得出一个结论,即人生是无常的,未来是不可预测的。但事实真的是如此吗? 以前的老人流行说一句话,三岁看小,七岁看老。这似乎是一句充满迷信主义色彩的俗语,但其实其中暗含了非常质朴而经典的理论依据,即随机过程不管其转移概率分布如何,随着时序的增大,最终会收敛在某个稳态上。用人话说就是:人在七岁时,其核心性格会定型,在今后的一生中,不管其经历了什么,最终都会殊途同归,到达同一个人生结局。 现在很流行一句话叫,性格决定命运。这句话从很多不同的学科中可以得到不同的解释,例如现代心理学会说性格的本质就是潜意识,而潜意识影响所有的思想和行为,进而影响了命运。社会行为学会说性格决定了你的人际网络拓朴结构与网络信息交互率等因素,而成功的人往往是那种同时占据了多个重要结构洞的关键人物,例如国家领导人或者公司高层。用信息论马尔柯夫随机过程的理论来解释就说,每个人的概率转移函数在很小的时候就会基本定型,对于每个人来说,出生、天赋这些都不是至关重要的因素,而相反,决定一个人最终能得到多少成就的决定因素是你的n,也即你能在多大程度上延伸生命的长度,生命周期n越长