线性回归模型

机器学习03-线性回归

二次信任 提交于 2019-11-28 08:35:01
文章目录 1. 问题背景 2. 数据表示 2.1. 特征向量 2.2. 特征矩阵 2.3. 样本标记 3. 模型 4. 训练 4.1. 损失函数和代价函数 4.2. 优化目标 4.3. 梯度下降 5. 正规方程 6. 波士顿房价求解 7. 参考 1. 问题背景 波士顿房价 数据集包含506条波士顿的城镇信息,每一条城镇信息都包含了14个属性的值,希望从该数据集找到城镇 房价中位数 与其它13属性之间存在的关系或规律,使得给出波士顿的一个城镇的前13个属性的值,就能够预测出该城镇的房价中位数。 这是一个典型的可以用 线性回归 (linear regression)算法解决的问题。线性回归算法是一种回归算法,属于监督学习算法,它使用的数据集既有特征又有标记,样本标记和预测结果都是连续值。 2. 数据表示 2.1. 特征向量 使用用特征向量表示数据集中的一个样本,一个样本的特征向量包含了该样本所有特征(feature)的值,但不包含需要预测的那一个属性的值: x ( i ) = ( x 1 ( i ) x 2 ( i ) ⋮ x n ( i ) ) \boldsymbol{{x}^{(i)}} = \begin{pmatrix} x_{1}^{(i)} \\ x_{2}^{(i)} \\ \vdots \\ x_{n}^{(i)} \end{pmatrix} x ( i ) = ⎝ ⎜

sklearn线性回归详解

心已入冬 提交于 2019-11-28 04:01:54
图片若未能正常显示,点击下面链接: http://ihoge.cn/2018/Logistic-regression.html 在线性回归中,我们想要建立一个模型,来拟合一个因变量 y 与一个或多个独立自变量(预测变量) x 之间的关系。 给定: 数据集 { ( x ( 1 ) , y ( 1 ) ) , . . . , ( x ( m ) , y ( m ) ) } { ( x ( 1 ) , y ( 1 ) ) , . . . , ( x ( m ) , y ( m ) ) } //--> x i x i //--> 是d-维向量 X i = ( x ( i ) 1 , . . . , x ( i ) d ) X i = ( x 1 ( i ) , . . . , x d ( i ) ) //--> y ( i ) y ( i ) //--> 是一个目标变量,它是一个标量 线性回归模型可以理解为一个非常简单的神经网络: 它有一个实值加权向量 w = ( w ( i ) , . . . , w ( d ) ) w = ( w ( i ) , . . . , w ( d ) ) //--> 它有一个实值偏置量 b 它使用恒等函数作为其激活函数 线性回归模型可以使用以下方法进行训练 a) 梯度下降法 b) 正态方程(封闭形式解) : w = ( X T X ) − 1 X T y w

sklearn中的线性回归学习

喜夏-厌秋 提交于 2019-11-28 03:57:02
sklearn 中的线性回归模块实例 1. 使用sklearn中 datases模块中的 波士顿房价数据; 源数据中y(房价)在50万时,会有不正确,所以选择 y < 50的数据 2.对数据进行thain test 分割 3.调用sklearn.linear_model 中的LinearRegression 模块创建实例化; 并传入训练数据、训练模型: 4. 查看模型的系数、截距、以及评分: 来源: CSDN 作者: qq_37610062 链接: https://blog.csdn.net/qq_37610062/article/details/82560548

【机器学习】对数线性模型之Logistic回归、SoftMax回归和最大熵模型

风格不统一 提交于 2019-11-26 11:09:55
点击上方 蓝色字体 ,关注 AI小白入门 哟 跟着博主的脚步,每天进步一点点 本文介绍对数线性分类模型,在线性模型的基础上通过复合函数(sigmoid,softmax,entropy )将其映射到概率区间,使用对数损失构建目标函数。 首先以概率的方式解释了logistic回归为什么使用sigmoid函数和对数损失,然后将二分类扩展到多分类,导出sigmoid函数的高维形式softmax函数对应softmax回归,最后最大熵模型可以看作是softmax回归的离散型版本,logistic回归和softmax回归处理数值型分类问题,最大熵模型对应处理离散型分类问题。 作者 | 文杰 编辑 | yuquanle Logistic回归 A、 Logistic回归 分类问题可以看作是在回归函数上的一个分类。 一般情况下定义二值函数,然而二值函数构成的损失函数非凸,一般采用sigmoid函数平滑拟合(当然也可以看作是一种软划分,概率划分): 从函数图像我们能看出,该函数有很好的特性,适合二分类问题。 至于为何选择Sigmoid函数,后面可以从广义线性模型导出为什么是Sigmoid函数。 逻辑回归可以看作是在线性回归的基础上构建的分类模型,理解的角度有多种(最好的当然是概率解释和最小对数损失),而最直接的理解是考虑逻辑回归是将线性回归值离散化。 即一个二分类问题(二值函数)如下:

3、深度学习基础

天涯浪子 提交于 2019-11-26 10:50:35
3.1 基本概念 3.1.1 神经网络组成 神经网络类型众多,其中最为重要的是多层感知机。为了详细地描述神经网络,我们先从最简单的神经网络说起。 感知机 多层感知机中的特征神经元模型称为感知机,由Frank Rosenblatt于1957年发明。 简单的感知机如下图所示: 其中$x_1$,$x_2$,$x_3$为感知机的输入,其输出为: $ output = \left{ \begin{aligned} 0, \quad if \ \ \sumi wi xi \leqslant threshold \ 1, \quad if \ \ \sumi wi xi > threshold \end{aligned} \right. $ 假如把感知机想象成一个加权投票机制,比如 3 位评委给一个歌手打分,打分分别为$ 4 $分、$1$ 分、$-3 $分,这$ 3$ 位评分的权重分别是 $1、3、2$,则该歌手最终得分为 $4 \times 1 + 1 \times 3 + (-3) \times 2 = 1$ 。按照比赛规则,选取的 $threshold$ 为 $3$,说明只有歌手的综合评分大于$ 3$ 时,才可顺利晋级。对照感知机,该选手被淘汰,因为: $$ \sumi wi x_i < threshold=3, output = 0 $$ 用 $-b$ 代替 $threshold$