回归模型

逻辑斯谛回归模型

泄露秘密 提交于 2020-03-01 11:59:22
目录 一、逻辑斯谛分布 二、二项逻辑斯谛回归模型 三、损失函数 一、逻辑斯谛分布 logistic分布函数形式: 在该方程式中,x是随机变量,μ是平均值,s是与标准偏差成比例的比例参数。这个方程我们只需要了解,在逻辑回归模型中真正用到的是sigmoid函数: 当上式中的 μ = 0,s = 1 时,即为sigmoid函数: S ( z ) = 1 1 + e ( − z ) S(z) = \frac{1}{1+e^{(-z)}} S ( z ) = 1 + e ( − z ) 1 ​ 二、二项逻辑斯谛回归模型 逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某事件发生的可能性。可以看到,虽然带有回归二字,但是 逻辑回归模型是一种分类模型。 逻辑回归与线性回归有密不可分的关系: 1.逻辑回归与线性回归都是一种广义线性模型。 2.逻辑回归假设因变量 y 服从伯努利分布(二项分布),而线性回归假设因变量 y 服从高斯分布(正态)。 3. 如果去除Sigmoid映射函数的话,逻辑回归算法就是一个线性回归。 可以说,逻辑回归是以线性回归为理论支持的,但是逻辑回归通过Sigmoid函数引入了非线性因素,因此可以轻松处理0/1分类问题。 上面介绍了sigmod函数: S ( z ) = 1 1 + e ( − z ) S(z) =

论文学习--数据挖掘必读论文01:The WEKA data mining software: an update

北慕城南 提交于 2020-03-01 10:42:10
论文原文 论文下载 论文被引:20211 论文年份:2009 WEKA:Weka是经过实践检验的开源机器学习软件,可以通过图形用户界面,标准终端应用程序或Java API进行访问。它被广泛用于教学,研究和工业应用,包含用于标准机器学习任务的大量内置工具,并且可以透明地访问scikit-learn,R和Deeplearning4j等知名工具箱。 WEKA官网 WEKA下载 The WEKA data mining software: an update ABSTRACT More than twelve years have elapsed since the first public release of WEKA. In that time, the software has been rewritten entirely from scratch, evolved substantially and now accompanies a text on data mining [35]. These days, WEKA enjoys widespread acceptance in both academia and business, has an active community, and has been downloaded more than 1.4 million

02-12 Logistic(逻辑)回归

*爱你&永不变心* 提交于 2020-02-26 23:29:50
文章目录 逻辑回归 逻辑回归学习目标 逻辑回归引入 逻辑回归详解 线性回归与逻辑回归 二元逻辑回归的假设函数 让步比 Sigmoid函数图像 二元逻辑回归的目标函数 不同样本分类的代价 二元逻辑回归目标函数最大化 梯度上升法 线性回归和逻辑回归的参数更新 拟牛顿法 二元逻辑回归模型 二元逻辑回归的正则化 L1正则化 L2正则化 多元逻辑回归 OvR MvM 逻辑回归流程 输入 输出 流程 逻辑回归优缺点 优点 缺点 小结 逻辑回归   虽然逻辑回归的名字里有“回归”两个字,但是它并不是一个回归算法,事实上它是一个分类算法。 逻辑回归学习目标 二元逻辑回归的目标函数 最小化二元逻辑回归目标函数 二元逻辑回归的正则化 多元逻辑回归 逻辑回归的流程 逻辑回归的优缺点 逻辑回归引入 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-1O9UxwXA-1582719512430)(…/新配图/恶搞图/06-09-操场2.jpg)]   曾经在感知机引入时我们讲过,操场上男生和女生由于受传统思想的影响,男生和女生分开站着,并且因为男生和女生散乱在操场上呈线性可分的状态,因此我们总可以通过感知机算法找到一条直线把男生和女生分开,并且最终可以得到感知机模型为 f ( x ) = s i g n ( ( w ∗ ) T x ) f(x)=sign((w^*)^Tx) f

02-04 线性回归

大憨熊 提交于 2020-02-25 21:30:00
文章目录 线性回归 线性回归学习目标 线性回归引入 线性回归详解 线性模型 一元线性回归 一元线性回归的目标函数 均方误差最小化——最小二乘法 多元线性回归 均方误差最小化——最小二乘法 均方误差最小化——牛顿法 均方误差最小化——拟牛顿法 多项式回归 对数线性回归 局部加权线性回归 正则化 L1正则化 L2正则化 弹性网络 线性回归流程 输入 输出 流程 线性回归优缺点 优点 缺点 小结 线性回归   线性回归是比较经典的线性模型,属于监督学习中预测值为连续值的回归问题。   线性回归针对的是一个或多个特征与连续目标变量之间的关系建模,即线性回归分析的主要目标是在连续尺度上预测输出,而非分类标签,即预测值为连续值。 线性回归学习目标 线性模型 一元线性回归和多元线性回归 多项式回归和对数线性回归 线性回归的L1正则化和L2正则化 线性回归流程 线性回归优缺点 线性回归引入   相信我们很多人可能都有去售楼处买房而无奈回家的行为,就算你没去过售楼处,相信你也应该听说过那令人叹而惊止的房价吧?对于高房价你没有想过这房价是怎么算出来的呢?难道就是房地产商拍拍脑门,北京的一概1000万,上海的一概800万,杭州的一概600万吗?看到这相信你应该有动力想要学好机器学习走向人生巅峰了。   其实仔细想想这房价大有来头,首先房价不可能只和地区有关,北京有1000万的房子,又会有800万

UA MATH574M 统计学习II 二元分类

旧时模样 提交于 2020-02-22 14:00:18
UA MATH574M 统计学习II 二元分类 基础模型 Bayes分类器 均等成本 不等成本 线性概率模型 线性分类器 线性判别分析(LDA) Logistics回归 基础模型 假设一个二元分类问题特征为 X ∈ X ⊂ R d X \in \mathcal{X} \subset \mathbb{R}^d X ∈ X ⊂ R d ,类别为 Y ∈ { 0 , 1 } Y \in \{0,1\} Y ∈ { 0 , 1 } ,二元分类的目标是训练一个模型: f : X → 0 , 1 f: \mathcal{X} \to {0,1} f : X → 0 , 1 完成分类任务。因为输出是0和1,所以通常用示性函数表示 f f f f = I ( b ( X ) > 0 ) f = I(b(X)>0) f = I ( b ( X ) > 0 ) 称 b ( X ) = 0 b(X)=0 b ( X ) = 0 为这两个类别的边界。二元分类问题与二值回归有哲学上的不同,二值回归认为特征 X X X 不具有随机性,响应 Y Y Y 的随机性来源于随机误差,而二元分类问题中特征 X X X 与响应 Y Y Y 均是随机变量。 Bayes分类器 假设 Y Y Y 的先验为 B e r ( π 1 ) Ber(\pi_1) B e r ( π 1 ​ ) ,特征的条件密度为 X ∣ Y = 1

ML.NET 示例:回归之销售预测

≡放荡痞女 提交于 2020-02-21 05:38:12
写在前面 准备近期将微软的machinelearning-samples翻译成中文,水平有限,如有错漏,请大家多多指正。 如果有朋友对此感兴趣,可以加入我: https://github.com/feiyun0112/machinelearning-samples.zh-cn eShopDashboardML - 销售预测 ML.NET 版本 API 类型 状态 应用程序类型 数据类型 场景 机器学习任务 算法 v0.7 动态 API 最新版本 ASP.NET Core Web应用程序和控制台应用程序 SQL Server 和 .csv 文件 销售预测 回归 FastTreeTweedie 回归 eShopDashboardML是一个使用 ML.NET 进行(每个产品和每个地区)销售预测的Web应用程序。 概述 这个终端示例应用程序通过展现以下主题着重介绍ML.NET API的用法: 如何训练,建立和生成ML模型 使用.NET Core实现一个 控制台应用程序 。 如何使用经过训练的ML模型做下个月的销售预测 使用 ASP.NET Core Razor 实现一个独立的,单体 Web应用程序 。 该应用程序还使用一个SQL Server数据库存储常规产品目录和订单信息,就像许多使用SQL Server的典型Web应用程序一样。在本例中,由于它是一个示例

ML.NET 示例:回归之价格预测

偶尔善良 提交于 2020-02-21 05:36:08
写在前面 准备近期将微软的machinelearning-samples翻译成中文,水平有限,如有错漏,请大家多多指正。 如果有朋友对此感兴趣,可以加入我: https://github.com/feiyun0112/machinelearning-samples.zh-cn 出租车费预测 ML.NET 版本 API 类型 状态 应用程序类型 数据类型 场景 机器学习任务 算法 v0.7 动态 API 最新版本 控制台应用程序 .csv 文件 价格预测 回归 Sdca 回归 在这个介绍性示例中,您将看到如何使用 ML.NET 预测出租车费。在机器学习领域,这种类型的预测被称为 回归 问题 这个问题主要集中在预测纽约出租车的行程费用。从表面看,它似乎仅仅取决于行程的距离。但是,由于其他因素(比如额外的乘客或使用信用卡而非现金付款),纽约的出租车供应商收费不同。这种预测可用于出租车供应商向用户和司机提供乘车费用的估计。 为了解决这个问题,我们将使用下列输入建立一个ML模型: 供应商ID 费率代码 乘客数量 出行时间 出行距离 支付方式 并预测乘车的费用。 ML 任务 - 回归 回归 的广义问题是预测给定参数的某些连续值,例如: 根据房间的数量、位置、建造年份等预测房子的价格。 根据燃油类型和汽车参数预测汽车燃油消耗量。 预测基于问题属性来修复问题的时间估计。

深度学习部分笔记

不羁岁月 提交于 2020-02-15 09:46:11
线性回归部分 主要内容包括: 线性回归的基本要素 线性回归模型从零开始的实现 线性回归模型使用pytorch的简洁实现 线性回归的基本要素 模型 为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系: price=warea⋅area+wage⋅age+b 数据集 我们通常收集一系列的真实数据,例如多栋房屋的真实售出价格和它们对应的面积和房龄。我们希望在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为训练数据集(training data set)或训练集(training set),一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两个因素叫作特征(feature)。特征用来表征样本的特点。 损失函数 在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。 它在评估索引为 i 的样本误差的表达式为 l(i)(w,b)=12(y^(i)−y(i))2, L(w,b)=1n∑i=1nl(i)(w,b)=1n∑i=1n12(w⊤x(i)+b−y(i))2. 优化函数 - 随机梯度下降

《动手学深度学习》笔记 Task01:线性回归;Softmax与分类模型、多层感知机

最后都变了- 提交于 2020-02-15 04:34:15
一、线性回归 主要内容: 1.线性回归的解释 2.线性回归模型的基本要素 3.线性回归模型的两种实现方式 1.线性回归的解释 线性回归,就是能够用一个直线较为精确地描述数据之间的关系。这样当出现新的数据的时候,就能够预测出一个简单的值。线性回归中最常见的就是房价的问题。一直存在很多房屋面积和房价的数据,如下图所示: 在这种情况下,就可以利用线性回归构造出一条直线来近似地描述放假与房屋面积之间的关系,从而就可以根据房屋面积推测出房价。 线性回归输出是一个连续值,因此适用于回归问题 。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同,分类问题中模型的最终输出是一个离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。softmax回归则适用于分类问题。 由于 线性回归和softmax回归都是单层神经网络 ,它们涉及的概念和技术同样适用于大多数的深度学习模型。 2.线性回归模型的基本要素 2.1 模型 为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系: 2.2 模型训练 接下来我们需要通过数据来寻找特定的模型参数值,使模型在数据上的误差尽可能小。这个过程叫作模型训练(model

线性回归、softmax回归

别等时光非礼了梦想. 提交于 2020-02-15 01:25:02
一、线性回归基本要素 1、模型线性回归假设输出与各个输入之间是线性关系, 例如: price=warea​⋅area+wage​⋅age+b 2、训练数据集(training data set)或训练集(training set):收集的真实数据,在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两个因素叫作特征(feature)。特征用来表征样本的特点。3、 损失函数模型训练中,通常采用平方误差函数衡量价格预测值与真实值之间的误差。数值越小表示误差越小。 表达式为 4、优化函数-随机梯度下降 先选取一组模型参数的初始值,如随机选取;接下来对参数进行多次迭代,使每次迭代都可能降低损失函数的值。在每次迭代中,先随机均匀采样一个由固定数目训练数据样本所组成的小批量(mini-batch),然后求小批量中数据样本的平均损失有关模型参数的导数(梯度),最后用此结果与预先设定的一个正数的乘积作为模型参数在本次迭代的减小量 其中 为学习率,即学习步长的大小 为批量大小 优化模型有两个步骤: (1)初始化模型参数 (2)在数据上多次迭代,通过在负梯度方向来更新模型参数pytorch的一些使用: 1、torch.ones(n):创建n维1张量 2、torch.zeros(n):创建n维0张量