贝叶斯估计

sklearn:朴素贝叶斯(naïve beyes)

流过昼夜 提交于 2019-11-28 09:16:37
朴素贝叶斯的原理: 基于朴素贝叶斯公式,比较出后验概率的最大值来进行分类,后验概率的计算是由先验概率与类条件概率的乘积得出,先验概率和类条件概率要通过训练数据集得出,即为朴素贝叶斯分类模型,将其保存为中间结果,测试文档进行分类时调用这个中间结果得出后验概率。 一、基本定义 分类是把一个事物分到某个类别中。一个事物具有很多属性,把它的众多属性看作一个向量,即x=(x1,x2,x3,…,xn),用x这个向量来代表这个事物,x的集合记为X,称为属性集。类别也有很多种,用集合C={c1,c2,…cm}表示。一般X和C的关系是不确定的,可以将X和C看作是随机变量, P(C|X)称为C的后验概率,与之相对的,P(C)称为C的先验概率 。 根据贝叶斯公式,后验概率 P(C|X)=P(X|C)P(C)/P(X) ,但在比较不同C值的后验概率时,分母P(X)总是常数,忽略掉,后验概率 P(C|X)=P(X|C)P(C) ,先验概率P(C)可以通过计算训练集中属于每一个类的训练样本所占的比例,对类条件概率P(X|C)的估计,我们只谈论朴素贝叶斯分类器方法,因为朴素贝叶斯假设事物属性之间相互条件独立, P(X|C)=∏P(xi|ci) 。 二、模型原理与训练 朴素贝叶斯分类器是一种有监督学习, 常见有两种模型,多项式模型(multinomial model)即为词频型和伯努利模型(Bernoulli

Sklearn 中的朴素贝叶斯分类器

天大地大妈咪最大 提交于 2019-11-28 09:13:22
原文地址: Naive Bayes Classification With Sklearn 原文作者: Martin Müller 译文出自: 掘金翻译计划 本文永久链接: https://github.com/xitu/gold-miner/blob/master/TODO1/naive-bayes-classifier-sklearn-python-example-tips.md 译者: sisibeloved 校对者: rockyzhengwu Sklearn 中的朴素贝叶斯分类器 用豆机实现的高斯分布 这篇 教程 详述了 朴素贝叶斯分类器 的算法、它的 原理 及 优缺点 ,并提供了一个使用 Sklearn 库 的示例。 背景 以著名的 泰坦尼克号遇难者数据集 为例。它收集了泰坦尼克号的乘客的个人信息以及是否从那场海难中生还。让我们试着用乘客的船票费用来预测一下他能否生还。 泰坦尼克号上的 500 名乘客 假设你随机取了 500 名乘客。在这些样本中, 30% 的人幸存下来。幸存乘客的平均票价为 100 美元 ,而遇难乘客的平均票价为 50 美元 。现在,假设你有了一个新的乘客。你不知道他是否幸存,但你知道他买了一张 30 美元 的票穿越大西洋。请你预测一下这个乘客是否幸存。 原理 好吧,你可能回答说这个乘客 没能幸存 。为什么?因为根据上文所取的乘客的随机子集中所包含的信息

学习sklearn朴素贝叶斯

爷,独闯天下 提交于 2019-11-28 09:09:33
不同的贝叶斯假设数据的分布不同。 暂时全部使用默认参数 高斯朴素贝叶斯 """ 多项式朴素贝叶斯分类器适用于具有离散特征的分类(例如,用于文本分类的字数)。 多项分布通常需要整数特征计数。然而,在实践中,诸如tf-idf的分数计数也可以起作用。 """ from sklearn import datasets iris = datasets . load_iris ( ) from sklearn . naive_bayes import GaussianNB gnb = GaussianNB ( ) gnb . fit ( iris . data , iris . target ) y_pred = gnb . predict ( iris . data ) print ( 'number of mislabeled points out of a total %d points : %d' % ( iris . data . shape [ 0 ] , ( iris . target != y_pred ) . sum ( ) ) ) gnb . score ( iris . data , iris . target ) gnb . get_params ( ) number of mislabeled points out of a total 150 points : 6

朴素贝叶斯

风格不统一 提交于 2019-11-28 06:16:10
1、贝叶斯定理: 2、朴素贝叶斯分类器 朴素贝叶斯分类的正式定义如下: 1、设 为一个待分类项,而每个a为x的一个特征属性。 2、有类别集合 。 3、计算 。 4、如果 ,则 。 那么现在的关键就是如何计算第3步中的各个条件概率。我们可以这么做: 1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。 2、统计得到在各类别下各个特征属性的条件概率估计。即 。 3、如果各个特征属性是条件独立的,则根据贝叶斯定理有如下推导: 因为分母对于所有类别为常数,因为我们只要将分子最大化皆可。又因为各特征属性是条件独立的,所以有: 根据上述分析,朴素贝叶斯分类的流程可以由下图表示(暂时不考虑验证): 来源: https://www.cnblogs.com/zf-blog/p/11396836.html

4 朴素贝叶斯法

时光毁灭记忆、已成空白 提交于 2019-11-27 21:48:41
朴素贝叶斯法 朴素贝叶斯(naïve Bayes)法是基于贝叶斯定理与特征条件独立假设的分类方法,是一种生成模型。 朴素贝叶斯法的学习与分类 基本方法 朴素贝叶斯法通过训练数据集学习联合概率分布 P(X,Y)。具体地,学习先验概率分布 P(Y=c k )及条件概率分布 P(X=x|Y=c k )。于是得到联合概率分布 P(X=x,Y=y)=P(X=x|Y=y)• P(Y=y) 先验概率:事件发生前的预判概率,一般都是单独事件概率。如 P(Y)或 P(X) 后验概率:事件发生后求的反向条件概率;或者说,基于先验概率求得的反向条件概率。如 P(Y|X) 条件概率:一个事件发生后另一个事件发生的概率。如 P(X|Y) 实例:假设y是文章种类,是一个枚举值;x是向量,表示文章中各个单词的出现次数。 在拥有训练集的情况下,显然除了后验概率P(y|x)中的x来自一篇新文章无法得到,p(x),p(y),p(x|y)都是可以在抽样集合上统计出的。 两者之间的关系:先验概率是获得后验概率的前提。 朴素贝叶斯法对条件概率分布作了条件独立性的假设: 朴素贝叶斯法分类时,对给定的输入x,通过学习到的模型计算后验概率分布P(Y=c k |X=x),将后验概率最大的类作为x的类输出。后验概率计算根据贝叶斯定理进行: 于是,朴素贝叶斯分类器可表示为 : 注意到,在上式中分母对所有C k 都是相同的,所以

机器学习之贝叶斯算法

泪湿孤枕 提交于 2019-11-27 16:43:32
一、贝叶斯简介   贝叶斯(约1701-1761) Thomas Bayes,英国数学家,贝叶斯方法源于他生前为解决一个“逆概”问题写的一篇文章,生不逢时,死后它的作品才被世人认可。       贝叶斯要解决的问题:   正向概率:假设袋子里面有N个白球,M个黑球,你伸手进去摸一把,摸出黑球的概率是多大?   逆向概率:如果我们事先并不知道袋子里面黑白球的比例,而是闭着眼睛摸出一个(或好几个)球,观察这些取出来的球的颜色之后,那么我们可以就此对袋子里面的黑白球的比例作出什么样的推测。   现实世界有很多问题本身就是不确定的(比如上面的逆向概率,不确定球的个数),而人类的观察能力是有局限性的,由于我们日常所观察到的只是事物表面上的结果(比如上面的逆向概率,观察取出来的球的颜色),因此我们需要提供一个猜测来得到袋子里面球的比例。 二、贝叶斯推导过程   首先引入一个栗子,假设在一个学校里面男生的概率和女生的概率分别是60%和40%,男生总是穿长裤,女生则一半穿长裤一半穿裙子。   正向概率:随机选取一个学生,他(她)穿长裤的概率和穿裙子的概率是多大?这个比例的计算就比较简单了。   逆向概率:迎面走来一个穿长裤的学生,你只看得见他(她)穿的是否长裤,而无法确定他(她)的性别,你能够推断出他(她)是女生的概率是多大吗?这就是我们要解决的问题。       假设学校里面人的总数是 U 个

朴素贝叶斯

被刻印的时光 ゝ 提交于 2019-11-27 05:11:56
《概率论》(当年我学习的课程为《概率论与数理统计》,涵盖了概率论与统计学)应该是每个理工科大学生都要学习的课程,不知道有多少同学和我一样,学得一头雾水。悲催的是,考研的时候又学习了一遍,依然不着门路,靠死记硬背过关。好在后面的学习和工作生涯中,再没有和它打过照面,直到最近开始接触机器学习。 《机器学习实战》第4章,开始介绍基于概率论的分类方法。其实《机器学习》这本书对贝叶斯决策论有比较详细的介绍,不过涉及到比较多的数学公式,比较难懂。而本书对程序员比较友好,只涉及很少的数学知识,更多的是通过程序来阐述这一算法。 条件概率 书中举了一个例子来阐述条件概率的概念。7块石头,3块是灰色的,4块是黑色的,放入两个桶A和B,A桶放4块石头(2块灰色,2块黑色),B桶放3块石头(1块灰色,2块灰色)。计算从B桶中取到灰色石头的概率的方法,就是所谓的条件概率。这里的已知条件是石头取自B桶且B桶有3块石头。用公式表示为: P(gray | bucketB) = P(gray and bucketB) / P(bucketB) 1 这个公式看起来不起眼,但却开启了一门新的理论,即通过先验知识和逻辑推理来处理不确定命题。另一种概率解释称为频数概率,它只从数据本身获取结论,并不考虑逻辑推理及先验知识。 另一种有效计算条件概率的方法称为贝叶斯准则。贝叶斯准则告诉我们如何交换条件概率中的条件和结果

详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解

主宰稳场 提交于 2019-11-26 16:56:57
文章目录 概率和统计是一个东西吗? 贝叶斯公式到底在说什么? 似然函数 文章目录 概率和统计是一个东西吗? 贝叶斯公式到底在说什么? 似然函数 来源: https://blog.csdn.net/a200332/article/details/98960751

变分贝叶斯(Variational Bayes)

安稳与你 提交于 2019-11-26 15:01:20
此文公式图片不全。详见博客: http://www.blog.huajh7.com/variational-bayes/ 【关键字】平均场理论,变分法,贝叶斯推断,EM算法,KL散度,变分估计,变分消息传递 引言 · 从贝叶斯推断说起 Question : 如果我们有一组观测数据D,如何推断产生这些数据的模型m? 模型由1)模型的类别ξ(如高斯分布,伽马分布,多项式分布等)与2)模型的参数Θ共同决定,即 . 模型的选择 假设M为所有可能的模型集合(包括不同类别),那么选择 如何计算p(m | D)? 通常情况很难直接计算p(m | D),根据贝叶斯公式有 ,p(m)表示模型的先验,p(D | m)表示证据; 先验:贝叶斯规则倾向于选择能解释数据的最简单模型:Occam剃刀原理。因为简单模型只在有限范围内做预测,复杂模型(如有更多自由参数)能对更宽范围做预测。 那么如何计算证据(evidence) ? 参数θ的后验概率为 证据p(D | m)通常会在最可能的参数 附近有一个很强的峰。 以一维参数为例:利用Laplace方法近似,即用被积函数 乘以其宽度 。即 。 此处不在深究Occam因子。 从模型的选择可以看出参数的估计非常重要。 考虑同一个类别的模型。由于任何模型(函数)都可以由统一的数学形式给出,比如拉格朗日展开,傅里叶极数,高斯混合模型(GMM)等