svm算法

DPM(Deformable Parts Model)--原理(一)

为君一笑 提交于 2019-12-06 14:39:18
DPM(Deformable Parts Model) Reference: Object detection with discriminatively trained partbased models. IEEE Trans. PAMI, 32(9):1627–1645, 2010. "Support Vector Machines for Multiple-Instance Learning,"Proc. Advances in Neural Information Processing Systems,2003. 作者主页: http://www.cs.berkeley.edu/~rbg/latent/index.html 补充 and 修正: HOG特征(毕业论文节选) DPM目标检测算法(毕业论文节选) 大体思路 DPM是一个非常成功的目标检测算法,连续获得VOC(Visual Object Class)07,08,09年的检测冠军。目前已成为众多分类器、分割、人体姿态和行为分类的重要部分。2010年Pedro Felzenszwalb被VOC授予"终身成就奖" 。 DPM可以看做是 HOG(Histogrrams of Oriented Gradients)的扩展,大体思路与HOG一致。先计算梯度方向直方图,然后用SVM(Surpport Vector Machine

SIGAI机器学习第十五集 支持向量机2

≯℡__Kan透↙ 提交于 2019-12-05 12:02:16
讲授线性分类器,分类间隔,线性可分的支持向量机原问题与对偶问题,线性不可分的支持向量机原问题与对偶问题,核映射与核函数,多分类问题,libsvm的使用,实际应用 大纲: SVM求解面临的问题 SMO算法简介 子问题的求解 子问题是凸优化的证明 收敛性保证 优化变量的选择 完整的算法 SVM求解面临的问题: 来源: https://www.cnblogs.com/wisir/p/11923819.html

SMO算法--SVM(3)

╄→гoц情女王★ 提交于 2019-12-05 00:53:25
SMO算法--SVM(3) 利用SMO算法解决这个问题: SMO算法的基本思路 : SMO算法是一种启发式的算法(别管启发式这个术语, 感兴趣可了解), 如果所有变量的解都满足最优化的KKT条件, 那么最优化问题就得到了。 每次只优化两个 , 将问题转化成很多个 二次规划 的子问题, 直到所有的解都满足KKT条件为止。 整个SMO算法包括两个部分: 1, 求解两个变量的解析方法 2, 选择变量的启发式方法 求解两个变量的解析方法 先选择两个变量 ,其余的 固定, 得到子问题: 更新 先不考虑约束条件, 代入 , 得到: 对 求导, 得到: 由于决策函数为: 令: 定义 误差项 : 定义 学习率 : 将v1, v2代入到 中, 得到: 代入误差项和学习率, 得到最终的导数表达式: 求出: 表示未加约束条件求出来的(未剪辑) 加上约束条件: 约束条件如下图的正方形框所示, 一共会有两种情况: 以左图为例子分析: ,约束条件可以写成: ,分别求取 的上界和下界: 下界: 上界: 同理,右图情况下 下界: 上界: 加入约束条件后: 然后根据: 计算出 : 选择变量的启发式方法 的选择 选择违反KKT条件的, 选择使|E1 - E2|变化最大的。 具体过程如下: 的选择: 由KKT条件: 具体证明过程: 一般来说,我们首先选择违反 这个条件的点。如果这些支持向量都满足KKT条件,再选择违反

L0、L1、L2范数正则化

无人久伴 提交于 2019-12-04 10:46:46
参考资料(要是对于本文的理解不够透彻,必须将以下博客认知阅读,方可全面了解LR): (1). https://zhuanlan.zhihu.com/p/74874291 (2). 逻辑回归与交叉熵 (3). https://www.cnblogs.com/pinard/p/6029432.html (4). https://zhuanlan.zhihu.com/p/76563562 (5). https://www.cnblogs.com/ModifyRong/p/7739955.html 一、逻辑回归介绍   逻辑回归(Logistic Regression)是一种广义线性回归。线性回归解决的是回归问题,预测值是实数范围,逻辑回归则相反,解决的是分类问题,预测值是[0,1]范围。所以逻辑回归名为回归,实为分类。接下来让我们用一句话来概括逻辑回归(LR): 逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法,运用梯度下降来求解参数,来达到将数据二分类的目的。 这句话包含了五点,接下来一一介绍: 逻辑回归的假设 逻辑回归的损失函数 逻辑回归的求解方法 逻辑回归的目的 逻辑回归如何分类 二、逻辑回归的假设 任何的模型都是有自己的假设,在这个假设下模型才是适用的。 逻辑回归的第一个基本假设是假设数据服从伯努利分布。 伯努利分布:是一个离散型概率分布,若成功,则随机变量取值1;若失败

Python3入门机器学习 经典算法与应用(网盘免费分享)

匿名 (未验证) 提交于 2019-12-02 22:51:30
部分课程学习资料截图: 免费课程资料领取目录: Python Flask构建微信小程序订餐系统 (网盘免费分享) 链接:https://pan.baidu.com/s/1rB7h53iNOweyqWTZXQv4cg 提取码:o9el ps:免费分享,如若链接失效请加群( 注意是免费免费免费分享 ) 私聊管理员即可免费领取;群――517432778,点击加群,或扫描二维码 第1章 欢迎来到 Python3 玩转机器学习 欢迎大家来到《Python3玩转机器学习》的课堂。在这个课程中,我们将从0开始,一点一点进入机器学习的世界。本门课程对机器学习领域的学习,绝不不仅仅只是对算法的学习,还包括诸如算法的评价,方法的选择,模型的优化,参数的调整,数据的整理,等等一系列工作。准备好了吗?现在开始我们的机器学习之旅!... 1-1 什么是机器学习 试看 1-2 课程涵盖的内容和理念 试看 1-3 课程所使用的主要技术栈 试看 第2章 机器学习基础 机器学习到底是什么鬼?这一章将带领大家深入理解机器学习的世界,让大家去熟悉那些看似陌生的专业术语。监督学习,非监督学习,半监督学习,增强学习,批量学习,在线学习,参数学习,非参数学习。看完这一章,这些概念你就统统了解啦。不仅如此,本章还包含相当深刻地和机器学习相关的哲学探讨,让你深入思索有关机器学习... 2-1 机器学习世界的数据 2-2

ML Note 1.3 - SVM

可紊 提交于 2019-12-02 09:15:48
Contents Optimal Margin Classifier Soft Margin Classifier SMO[^smo] Kernels Support vector machines 几乎是最好的有监督学习算法。对于一个线性二分问题,设 y ∈ { − 1 , 1 } , x ∈ R n y \in \{-1,1\}, x \in \mathbb{R}^n y ∈ { − 1 , 1 } , x ∈ R n 。注意到我们没有使用增广形式的特征向量,而是使用线性参数 w w w 和 b b b 来表示 h w , b ( x ) = g ( w T x + b ) h_{w,b}(x) = g(w^Tx+b) h w , b ​ ( x ) = g ( w T x + b ) 其中 g ( z ) = { 1 if z ≥ 0 − 1 otherwise g(z) = \left\{\begin{array}{cl} 1 & \text{if }z \ge 0\\ -1 & \text{otherwise} \end{array}\right. g ( z ) = { 1 − 1 ​ if z ≥ 0 otherwise ​ Optimal Margin Classifier 假设 S S S 线性可分,即存在 w , b w, b w , b 使所有样本被预测正确

机器学习系列(22)_SVM碎碎念part5:凸函数与优化

大兔子大兔子 提交于 2019-12-02 05:54:49
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接: https://blog.csdn.net/yaoqiang2011/article/details/79080100 原文地址: SVM - Understanding the math - convex-functions/ by Brandon Amos 感谢参与翻译同学:@程亚雄 && @张蒙 && @jozee 时间:2018年1月。 出处: http://blog.csdn.net/han_xiaoyang/article/details/70214565 声明:版权所有,转载请联系 寒小阳 (hanxiaoyang.ml@gmail.com)并注明出 1.引言 这是SVM数学基础系列教程 第5部分 。现在我们来学习凸函数相关的知识。如果你没有读过之前的文章,建议从 《第一部分》 开始学习。 1.1 如何找到全局最小值 有一种简单的方法可以找到全局最小值: 找到所有的局部极小值 最小的局部极小值就是全局最小值 还有另一种方法就是研究需要极小化的目标函数。如果这个函数是凸函数,那么就可以确保该函数的局部极小值即是全局最小值 定理 :凸函数的局部极小值就是全局最小值 ( Proof page 9 ) 2.凸函数 2.1 什么是凸函数

支持向量机(Support Vector Machine / SVM)

我与影子孤独终老i 提交于 2019-12-02 03:48:11
支持向量机(Support Vector Machines, SVM):是一种机器学习算法。 支持向量(Support Vector)就是离分隔超平面最近的那些点。 机(Machine)就是表示一种算法,而不是表示机器。 基于训练集样本在空间中找到一个划分超平面,将不同类别的样本分开。 SVM 工作原理 在样本空间中,划分超平面可通过如下线性方程来描述: 来源: https://www.cnblogs.com/wanglinjie/p/11729786.html

Python3入门机器学习 经典算法与应用(网盘免费分享)

瘦欲@ 提交于 2019-11-30 03:37:42
Python3入门机器学习 经典算法与应用(网盘免费分享) 部分课程学习资料截图: 免费课程资料领取目录: Python Flask构建微信小程序订餐系统 (网盘免费分享) Python分布式爬虫必学框架Scrapy打造搜索引擎(网盘免费分享) Python3实战Spark大数据分析及调度 (网盘免费分享) Python Flask高级编程之RESTFul API前后端分离精讲 (网盘免费分享) 链接:https://pan.baidu.com/s/1rB7h53iNOweyqWTZXQv4cg 提取码:o9el ps:免费分享,如若链接失效请加群( 注意是免费免费免费分享 ) 私聊管理员即可免费领取;群——517432778,点击加群,或扫描二维码 第1章 欢迎来到 Python3 玩转机器学习 欢迎大家来到《Python3玩转机器学习》的课堂。在这个课程中,我们将从0开始,一点一点进入机器学习的世界。本门课程对机器学习领域的学习,绝不不仅仅只是对算法的学习,还包括诸如算法的评价,方法的选择,模型的优化,参数的调整,数据的整理,等等一系列工作。准备好了吗?现在开始我们的机器学习之旅!... 1-1 什么是机器学习 试看 1-2 课程涵盖的内容和理念 试看 1-3 课程所使用的主要技术栈 试看 第2章 机器学习基础 机器学习到底是什么鬼?这一章将带领大家深入理解机器学习的世界

SVM中的优化问题

瘦欲@ 提交于 2019-11-29 13:40:01
无约束优化 \(\begin{equation}\begin{split}\min f(\mathtt{x})\end{split}\end{equation}\) \(\mathtt{x}\in{R^d}\) 可以令 \(f(x)\) 对向量 \(\mathtt{x}\) 求偏导,使得 \(\nabla f(\mathtt{x})=0\) 的向量 \(\mathtt{x'}\) 即为极值点 红色点标记的就是极值点 极值点一定包含极小值,但极值点往往不唯一,所以需要代入验证 利用梯度下降等办法获取迭代解 一个点的梯度方向意味着函数增长最快的方向,反过来说梯度方向的反方向是函数下降最快的方向 随机从一个点开始,每次沿着梯度方向的反方向走一小步,直到梯度足够小或者迭代次数到达上限结束迭代获得迭代解 \(\mathtt{x}_1=\mathtt{x}_0-\alpha\nabla{f(\mathtt{x}_0)}\) 这里 \(\alpha\) 控制移动的幅度大小,称为学习速率 梯度下降也会遇到局部最优解,要解决这个问题可以通过随机生成起始点进行多次梯度下降算法,从中选取最优的一个 左边箭头所指的是全局最优解,右边箭头所指的是局部最优解, 等式约束(拉格朗日乘数法) 拉格朗日乘数法是一种寻找多元函数在其变量受到一个或多个条件的约束时的极值的方法