概率论

贝叶斯统计概要(待修改)

こ雲淡風輕ζ 提交于 2019-12-05 05:23:20
一:频率派,贝叶斯派的哲学 现在考虑一个最最基本的问题,到底什么是概率?当然概率已经是在数学上严格的,良好定义的,这要归功于30年代大数学家A.N.Kolmogrov的概率论公理化。但是数学上的概率和现实世界到底是有怎样的关系?我们在用数学理论--------概率论解决实际问题的时候,又应该用什么样的观点呢?这真差不多是个哲学问题。这个问题其实必须得好好考察一下,下面我们看看最基本的两种哲学观,分别来自频率派和贝叶斯派, 我们这里的 “哲学” 指的是数学研究中朴素的哲学观念,而不是很严肃的哲学讨论。 1.1. 经典的统计(频率派)的哲学 : 1)概率指的是频率的极限,概率是真实世界的客观性质(objective property) 2)概率分布的参数都是固定的,通常情况下未知的常数,不存在"参数$\theta$满足XXX的概率是X"这种概念。 3)统计方法应该保证具有良好的极限频率性质,例如95%区间估计应该保证当$N$足够大的时候,我们选取$N$个样本集$S_{1}$, $S_{2}$,...,$S_{N}$所计算出来的相应的区间$I_{1}$,$I_{2}$,...,$I_{N}$中将有至少95%*N个区间包含我们需要估计的统计量的真实值。 我们从上看到,经典频率派的统计是非常具有 唯物主义(materialism) 色彩的,而贝叶斯的哲学大不一样

贝叶斯统计概要(待修改)

£可爱£侵袭症+ 提交于 2019-12-05 03:25:02
一:贝叶斯的哲学 现在考虑一个最最基本的问题,到底什么是概率?当然概率已经是在数学上严格的,良好定义的,这要归功于30年代大数学家A.N.Kolmogrov的概率论公理化。但是数学上的概率和现实世界到底是有怎样的关系?我们在用数学理论--------概率论解决实际问题的时候,又应该用什么样的观点呢?这真差不多是个哲学问题。这个问题其实必须得好好考察一下,下面我们看看最基本的两种哲学观,分别来自频率派和贝叶斯派, 我们这里的 “哲学” 指的是数学研究中朴素的哲学观念,而不是很严肃的哲学讨论。 1.1. 经典的统计推断(频率派)的哲学 : 1)概率指的是频率的极限,概率是真实世界的客观性质(objective property) 2)概率分布的参数都是固定的,通常情况下未知的常数,不存在"参数$\theta$满足XXX的概率是X"这种概念。 3)统计方法应该保证具有良好的极限频率性质,例如95%区间估计应该保证当$N$足够大的时候,我们选取$N$个样本集$S_{1}$, $S_{2}$,...,$S_{N}$所计算出来的相应的区间$I_{1}$,$I_{2}$,...,$I_{N}$中将有至少95%*N个区间包含我们需要估计的统计量的真实值。 我们从上看到,经典频率派的统计是非常具有 唯物主义(materialism) 色彩的,而贝叶斯的哲学大不一样,据考证贝叶斯是英格兰的一名牧师

左偏|有偏|中心极限定理|卡方分布|

左心房为你撑大大i 提交于 2019-12-04 21:18:53
第二部分 概率论、基本分布 怎么判断左偏和有偏? 看尾巴的方向: 中心极限定理的两个要点? 最后的正态分布的均值和方差。 当样本极度大的时候可以忽略该样本是否来自正态分布。 三种常用抽样分布的共同特点? 分布走势仅与自由度有关 卡方分布的分母是自由度吗? 不是,卡方分布没有分母: 自由度是 Z 分布的个数。 当总体分布为二项分布时如何选择抽样分布? 注意要考虑不同样本容量 大样本时,注意要考虑乘积的大小 小样本时,就按照二项分布本身 正态分布总体方差未知时,如何推断总体参数? 用 T 分布推断均值 用 F 分布推断方差 来源: https://www.cnblogs.com/yuanjingnan/p/11884543.html

算法 - 朴素贝叶斯分类算法

泄露秘密 提交于 2019-12-04 04:52:52
带你搞懂朴素贝叶斯分类算法 带你搞懂朴素贝叶斯分类算 贝叶斯分类是一类分类 算法 的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。而朴素朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法。这篇文章我尽可能用直白的话语总结一下我们学习会上讲到的朴素贝叶斯分类算法,希望有利于他人理解。 1 分类问题综述 对于分类问题,其实谁都不会陌生,日常生活中我们每天都进行着分类过程。例如,当你看到一个人,你的脑子下意识判断他是学生还是社会上的人;你可能经常会走在路上对身旁的朋友说“这个人一看就很有钱”之类的话,其实这就是一种分类操作。 既然是贝叶斯分类算法,那么分类的数学描述又是什么呢? 从数学角度来说,分类问题可做如下定义:已知集合 和 ,确定映射规则y = f(x),使得任意 有且仅有一个 ,使得 成立。 其中C叫做类别集合,其中每一个元素是一个类别,而I叫做项集合(特征集合),其中每一个元素是一个待分类项,f叫做分类器。分类算法的任务就是构造分类器f。 分类算法的内容是要求给定特征,让我们得出类别,这也是所有分类问题的关键。那么如何由指定特征,得到我们最终的类别,也是我们下面要讲的,每一个不同的分类算法,对应着不同的核心思想。 本篇文章,我会用一个具体实例,对朴素贝叶斯算法几乎所有的重要知识点进行讲解。 2 朴素贝叶斯分类 那么既然是朴素贝叶斯分类算法

10 -概率分布/密度函数(概率论与数理统计学习笔记)

自闭症网瘾萝莉.ら 提交于 2019-12-04 01:20:25
目录 分布函数(离散\连续) 性质 离散型分布函数 例题 连续性分布函数 分布函数(离散\连续) 如何简单理解概率分布函数和概率密度函数 定义 : 设 \(X\) 是一个随机变量, \(x\) 是任意实数,函数 \(f(x) = P\{X\leq x\}\) 称为X的分布函数 。 也叫随机变量 \(X\) 不超过 \(x\) 的概率 分布函数也称为概率累计函数 性质 \(0\leq F(x) \leq 1\) \(F(X)\) 是不减函数(不是减函数). 离散型分布函数 例题 连续性分布函数 设:概率分布函数为: \(F(x)\) 概率密度函数为: \(f(x)\) 二者的关系为: $f(x) = dF(x)/dx $ 即:密度函数f 为分布函数 F 的一阶导数。或者分布函数为密度函数的积分。 来源: https://www.cnblogs.com/GGTomato/p/11826710.html

概率论与随机过程相关书籍点评

痞子三分冷 提交于 2019-12-03 23:54:19
概率论与随机过程相关书籍点评 这次讲一下我比较了解的概率论与随机过程的相关书籍,也讲一下相关知识的学习顺序。提到的书,如果没有特别注明,都是国内出版过的。 按北大的课程设置,相关课程是初等概率论、初等随机过程、初等随机分析,测度论,高等概率论、高等随机过程、高等随机分析(当然,课程名不是这样的)。后三门大概是基于测度论的前三门的强化。一般是大二下初等概率论,大三上初等随机过程,大三下测度论,大四上高等概率论,大四下高等随机过程,两门随机分析都是两年开一次,什么时候赶上什么时候学。 1 初等概率论 只需要一些微积分,可能还要一点线性代数。只是讲一些概率论的基础概念,理解难度不大(虽然我并没有资格说这种话,毕竟初等概率论考了专业课最低分...),看什么书没太有区别。 北大常用的是何书元的《概率论》和李贤平的《概率论基础》(最新是第三版,配有习题解答《概率论基础学习指导书》,用来刷题不错)。我觉得李贤平的书好一点。此外钟开莱有一本《初等概率论》(应该只有英文),Sheldon Ross有一本《概率论基础教程》,我只是翻过,应该都不错。 2 初等随机过程 这门课在北大叫做应用随机过程,据说是『随机过程随机过』的出处。我修这门课的时候,大岳老师说只要期中和期末加起来够60分就可以,结果期中平均分三十多...这门课需要修过初等概率论,可能还要一点常微分方程。讲离散时间和连续时间的马氏链

7-独立事件和互不相容(概率论与数理统计学习笔记)

自作多情 提交于 2019-12-03 23:42:21
目录 独立事件和互不相容 区别 独立事件和互不相容 定义 : 相互独立是设A,B是两事件,如果满足等式 \(P(AB)=P(A)P(B)\) ,则称事件 \(A,B\) 相互独立,简称 \(A,B\) 独立. \(P(A|B)=P(A)P(B)\) 定理: \(\emptyset,和\Omega与任意事件A相互独立\) 若 \(A和B独立,那么\overline{A}和B,A和\overline{B},\overline{A}和\overline{B}\) 都独立 若 \(P(A)=0或1,那P(A)与任意事件都相互独立\) 区别 独立: 两个概率 互不影响 互不相容: 两个概率 不会同时发生 , 没有交集 独立和互不相容 不可能同时成立 若 \(A,B\) 独立: \(P(AB)=P(A)P(B)\) 若 \(A,B\) 互不相容,则 \(P(AB)=0\) 来源: https://www.cnblogs.com/GGTomato/p/11811688.html

1-基本概念(概率论与数理统计学习笔记)

旧街凉风 提交于 2019-12-03 17:34:31
目录 1. 基本概念 名词解释 随机试验: 随机事件: 基本事件: 复合事件: 样本空间: 样本点: 符号解释 1. 基本概念 名词解释 随机试验: [x] 在相同条件下可重复,即可重复试验 [x] 试验的结果不可预测 [x] 试验的结果不止一个 随机事件: [x] 随机事件是在随机试验中,可能出现也可能不出现,而在大量重复试验中具有某种规律性的事件叫做随机事件(简称事件) 基本事件: [x] 在概率论中,基本事件(也称为原子事件或简单事件)是一个仅在样本空间中单个结果的事件 复合事件: [x] 多个事件的集合,为复合事件. 样本空间: [x] 所有基本事件的集合称为样本空间,又叫全集,必然事件. 样本点: [x] 样本空间中的基本元素 符号解释 \(\emptyset\) : 空集 \(\Omega\) : 全集 来源: https://www.cnblogs.com/GGTomato/p/11805153.html

中心极限定理-纯理解无公式

喜欢而已 提交于 2019-12-03 10:23:00
#什么是中心极限定理(Central Limit Theorem) 中心极限定理指的是给定一个任意分布的总体。我每次从这些总体中随机抽取 n 个抽样,一共抽 m 次。 然后把这 m 组抽样分别求出平均值。 这些平均值的分布 接近正态分布 。 注意 :不一定是平均值,可以是任何统计量 也就是说:大量相互独立的随机变量,其均值(或者和)的分布以正态分布为极限 意思就是当满足某些条件的时候,比如Sample Size比较大,采样次数区域无穷大的时候,就越接近正态分布。 而这个定理神奇的地方在于,无论是什么分布的随机变量,都满足这个定理。 例子 : 此网站可以自己进去设置下数据,模拟一下 大数定律 是说,n只要越来越大,我把这n个独立同分布的数加起来去除以n得到的这个样本均值(也是一个随机变量)会依概率收敛到真值u, 但是样本均值的分布是怎样的我们不知道 。 中心极限定理 是说,n只要越来越大,这n个数的样本均值会趋近于正态分布,并且这个正态分布以 u u u 为均值, σ 2 n \frac{\sigma ^{2}}{n} n σ 2 ​ 为方差。 综上所述 ,这两个定律都是在说样本均值性质。随着n增大,大数定律说样本均值几乎必然等于均值。中心极限定律说,他越来越趋近于正态分布。并且这个正态分布的方差越来越小。 直观上来讲,想到大数定律的时候,你脑海里浮现的应该是一个样本

第一讲 课程介绍

a 夏天 提交于 2019-12-03 10:08:58
随机现象:个别实验结果呈现不确定性,大量重复实验又具有 统计规律性 的现象 概率论:是一门揭示随机现象统计规律性的数学学科 统计学:是一个门通过收集、整理、分析数据等手段以达到推断或预测考察对象本质或未来的学科 来源: https://www.cnblogs.com/greatljg/p/11787762.html