线性模型

初学者的卡尔曼滤波——扩展卡尔曼滤波(一)

北城以北 提交于 2020-03-12 15:28:42
简介   已经历经了半个世纪的卡尔曼滤波至今仍然是研究的热点,相关的文章不断被发表。其中许多文章是关于卡尔曼滤波器的新应用,但也不乏改善和扩展滤波器算法的研究。而对算法的研究多着重于将卡尔曼滤波应用于非线性系统。   为什么学界要这么热衷于将卡尔曼滤波器用于非线性系统呢?因为卡尔曼滤波器从一开始就是为线性系统设计的算法,不能用于非线性系统中。但是事实上多数系统都是非线性的,所以如果卡尔曼滤波器不能用在非线性系统中的话,那么它的应用范围就非常有限了。如果真的是这样,卡尔曼滤波器可能早就寿终正寝或者过很久很久才会被人注意到。幸运的是早期的学者们对这个问题理解的非常深刻,而且也找到了解决方法,就是扩展卡尔曼滤波(EKF)。   事实上世界上的第一个卡尔曼滤波也是扩展卡尔曼滤波,而不是线性卡尔曼滤波器。扩展卡尔曼滤波有很久远的历史,如果说有一个 非线性系统 需要用到卡尔曼滤波的话,不必怀疑,先试试扩展卡尔曼滤波准没错。因为他有很久远的历史,所以可以轻松的找到许多这方面的资料。   不过扩展卡尔曼滤波也不是无懈可击的,它有一个很 严重的短板——发散 。使用扩展卡尔曼滤波的时候请务必记在心上,时刻提醒自己,这样设计滤波器其结果会发散吗?毫不夸张地说相对于线性卡尔曼滤波设计扩展卡尔曼滤波器的就是在解决发散问题。发散问题解决了剩下的都是小事。 小结: 扩展卡尔曼滤波器主要用于非线性系统;

机器学习篇——单变量线性回归问题(Tensorflow求解)

走远了吗. 提交于 2020-03-10 03:29:26
机器学习中的单变量线性回归问题其实就是用一个神经元解决的方法。 文章目录 线性回归中的一些术语 模型训练的迭代方法 单变量线性回归机器学习求解 下面是一个简单的线性回归案例 线性回归中的一些术语 标签: 是我们要预测的真实事物,在上面例子线性回归中就是应变量y 特征: 是用于描述数据的输入变量,在上面例子线性回归中就是自变量x的取值集合{x1、x2、x3、…xn} 样本: 是数据的特定实例:x的一个取值 有标签样本就是{特征,标签}:{x,y},用来训练模型 无………………{特征,?}:{x,?},用来对新数据进行预测 模型: 可以将样本映射到预测标签:y’是由模型的内部参数定义,内部参数则是通过不断地学习而得到。 训练: 训练模型是指通过有标签的样本来学习所有的权重(x的系数)和偏差(截距)的理想值 在监督式学习中,机器学习算法可以通过检查多个样本并尝试找出可最大限度地减少损失的模型。(也被称之为经验风险最小化) 损失: 是对糟糕预测的惩罚,是一个对于单个样本而言模型预测的准确程度的数值指标。 训练模型的目标是从所有样本中找到一组平均损失“较小”的权重和偏差。 损失函数: L1损失:基于模型预测值与标签的实际值之差的绝对值为指标 L2损失:基于模型预测值与标签的实际值之差的平均平方损失为指标(均方误差MSE) 模型训练的迭代方法 由上图可知,模型训练的要点:

机器学习160道面试题

爷,独闯天下 提交于 2020-03-06 10:19:46
数据科学职位的典型面试过程会有很多轮,其中通常会涉及理论概念,目的是确定应聘者是否了解机器学习的基础知识。 在这篇文章中,我想总结一下我所有的面试经历(面试or被面试)并提出了160多个数据科学理论问题的清单。 其中包括以下主题: 线性回归 模型验证 分类和逻辑回归 正则化 决策树 随机森林 GBDT 神经网络 文本分类 聚类 排序:搜索和推荐 时间序列 这篇文章中的问题数量似乎远远不够,请记住,面试流程是根据公司的需求和你的工作经历而定的。因此,如果你的工作中没有用过时间序列模型或计算机视觉模型,就不会收到类似的问题。提示:如果不知道某些面试问题的答案,不要灰心。为了简化起见,我根据难度将问题分为三类: 👶容易 ⭐️中号 🚀专家 开始吧! 有监督的机器学习 什么是有监督学习?👶 线性回归 什么是回归?哪些模型可用于解决回归问题?👶 什么是线性回归?什么时候使用它?👶 什么是正态分布?为什么要重视它?👶 如何检查变量是否遵循正态分布?‍⭐️ 如何建立价格预测模型?价格是否正态分布?需要对价格进行预处理吗?‍⭐️ 解决线性回归的模型有哪些?‍⭐️ 什么是梯度下降?它是如何工作的?‍⭐️ 什么是正规方程?‍⭐️ 什么是SGD-随机梯度下降?与通常的梯度下降有何不同?‍⭐️ 有哪些评估回归模型的指标?👶 什么是MSE和RMSE?👶 验证方式 什么是过拟合?👶 如何验证模型?👶

160个机器学习面试题

半城伤御伤魂 提交于 2020-03-06 09:30:23
原文: https://hackernoon.com/160-data-science-interview-questions-415s3y2a Alexey Grigorev(Lead Data Scientist at OLX Group) 数据科学职位的典型面试过程会有很多轮,其中通常会涉及理论概念,目的是确定应聘者是否了解机器学习的基础知识。 在这篇文章中,我想总结一下我所有的面试经历(面试or被面试)并提出了160多个数据科学理论问题的清单。 其中包括以下主题: 线性回归 模型验证 分类和逻辑回归 正则化 决策树 随机森林 GBDT 神经网络 文本分类 聚类 排序:搜索和推荐 时间序列 这篇文章中的问题数量似乎远远不够,请记住,面试流程是根据公司的需求和你的工作经历而定的。因此,如果你的工作中没有用过时间序列模型或计算机视觉模型,就不会收到类似的问题。 提示:如果不知道某些面试问题的答案,不要灰心。为了简化起见,我根据难度将问题分为三类: 👶容易 ⭐️中号 🚀专家 开始吧! 有监督的机器学习 什么是有监督学习?👶 线性回归 什么是回归?哪些模型可用于解决回归问题?👶 什么是线性回归?什么时候使用它?👶 什么是正态分布?为什么要重视它?👶 如何检查变量是否遵循正态分布?‍⭐️ 如何建立价格预测模型?价格是否正态分布?需要对价格进行预处理吗?‍⭐️ 解决线性回归的模型有哪些?

语音信号的线性预测编码(LPC)

十年热恋 提交于 2020-02-26 22:28:56
语音信号的线性预测编码( LPC ) by Goncely 1 线性预测技术概述 线性预测编码是语音处理中的核心技术,它在语音识别、合成、编码、说话人识别等方面都得到了成功的应用。其核心思想是利用输入信号 u 和历史输出信号 s 的线性组合来估计输出序列 s(n) : 式中的 a i 和 b j 被称为预测系数,其传递函数可表示为: 该式为有理函数,在基于参数模型的谱估计法和系统辨识研究中,根据极点和零点数目的不同,它存在三种情况:一种是只有零点没有极点的情况,分母 U(z) 为单位 1 ,称为滑动平均模型,即 MA ( Moving-Average )模型;另一种是只有极点没有零点的,分子 S(z) 为常数,称为自回归模型,即 AR ( Auto-Regressive )模型;第三种是既有零点又有极点的,称为自回归滑动平均模型,即 ARMA ( Auto-Regressive Moving-Average )模型。这三种模型中对于复杂的频谱特性的描述能力最强的应该是 ARMA 模型,但它的参数估计存在许多复杂问题。全极点模型的参数估计十分简便,而且往往只需要很少几个极点就可以相当好地逼近一种频谱或一种系统的频率响应,因为它的传递函数相当于一个递归数字滤波器,即 IIR 滤波器。众所周知,用一个三四阶的 IIR 数字滤波器来逼近希望的频率响应幅度特性就可能相当于一个二十多阶的

02-01 感知机

删除回忆录丶 提交于 2020-02-26 02:09:14
文章目录 感知机 感知机学习目标 感知机引入 线性可分和线性不可分 感知机详解 感知机模型 感知机损失函数 感知机目标函数 感知机最小化目标函数原始形式 感知机最小化目标函数对偶形式 感知机算法的收敛性 感知机流程 输入 输出 原始形式流程 对偶形式流程 感知机优缺点 优点 缺点 小结 感知机   感知机在1957年被提出,算是最古老的分类方法之一。   虽然感知机泛化能力不及其他的分类模型,但是如果能够对感知机的原理有一定的认识,在之后学习支持向量机、神经网络等机器学习算法的时候会轻松很多。 感知机学习目标 感知机模型 感知机的损失函数和目标函数 感知机原始形式和对偶形式 感知机流程 感知机优缺点 感知机引入 线性可分和线性不可分   每逢下午有体育课,总会有男孩和女孩在学校的操场上玩耍。   假设由于传统思想的影响,男孩总会和男孩一起打打篮球,女孩总会和女孩一起踢毽子、跳跳绳,如下图所示。 # 感知机引入图例 import numpy as np import matplotlib . pyplot as plt from matplotlib . font_manager import FontProperties % matplotlib inline font = FontProperties ( fname = '/Library/Fonts/Heiti.ttc' )

02-04 线性回归

大憨熊 提交于 2020-02-25 21:30:00
文章目录 线性回归 线性回归学习目标 线性回归引入 线性回归详解 线性模型 一元线性回归 一元线性回归的目标函数 均方误差最小化——最小二乘法 多元线性回归 均方误差最小化——最小二乘法 均方误差最小化——牛顿法 均方误差最小化——拟牛顿法 多项式回归 对数线性回归 局部加权线性回归 正则化 L1正则化 L2正则化 弹性网络 线性回归流程 输入 输出 流程 线性回归优缺点 优点 缺点 小结 线性回归   线性回归是比较经典的线性模型,属于监督学习中预测值为连续值的回归问题。   线性回归针对的是一个或多个特征与连续目标变量之间的关系建模,即线性回归分析的主要目标是在连续尺度上预测输出,而非分类标签,即预测值为连续值。 线性回归学习目标 线性模型 一元线性回归和多元线性回归 多项式回归和对数线性回归 线性回归的L1正则化和L2正则化 线性回归流程 线性回归优缺点 线性回归引入   相信我们很多人可能都有去售楼处买房而无奈回家的行为,就算你没去过售楼处,相信你也应该听说过那令人叹而惊止的房价吧?对于高房价你没有想过这房价是怎么算出来的呢?难道就是房地产商拍拍脑门,北京的一概1000万,上海的一概800万,杭州的一概600万吗?看到这相信你应该有动力想要学好机器学习走向人生巅峰了。   其实仔细想想这房价大有来头,首先房价不可能只和地区有关,北京有1000万的房子,又会有800万

UA MATH574M 统计学习II 二元分类

旧时模样 提交于 2020-02-22 14:00:18
UA MATH574M 统计学习II 二元分类 基础模型 Bayes分类器 均等成本 不等成本 线性概率模型 线性分类器 线性判别分析(LDA) Logistics回归 基础模型 假设一个二元分类问题特征为 X ∈ X ⊂ R d X \in \mathcal{X} \subset \mathbb{R}^d X ∈ X ⊂ R d ,类别为 Y ∈ { 0 , 1 } Y \in \{0,1\} Y ∈ { 0 , 1 } ,二元分类的目标是训练一个模型: f : X → 0 , 1 f: \mathcal{X} \to {0,1} f : X → 0 , 1 完成分类任务。因为输出是0和1,所以通常用示性函数表示 f f f f = I ( b ( X ) > 0 ) f = I(b(X)>0) f = I ( b ( X ) > 0 ) 称 b ( X ) = 0 b(X)=0 b ( X ) = 0 为这两个类别的边界。二元分类问题与二值回归有哲学上的不同,二值回归认为特征 X X X 不具有随机性,响应 Y Y Y 的随机性来源于随机误差,而二元分类问题中特征 X X X 与响应 Y Y Y 均是随机变量。 Bayes分类器 假设 Y Y Y 的先验为 B e r ( π 1 ) Ber(\pi_1) B e r ( π 1 ​ ) ,特征的条件密度为 X ∣ Y = 1

DataWhale组队学习Task01:线性回归

生来就可爱ヽ(ⅴ<●) 提交于 2020-02-15 06:19:05
1 线性回归模型简介 线性回归是能够用一个直线较为精确地描述数据与数据之间的关系。线性回归中最常见的就是房价的问题。下面通过房价的例子理解线性回归的 基本要素 模型 我们假设价格只取决于房屋状况的两个因素:面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系: 价格 = W_area 面积 + W_age 房龄 + b 数据集 房屋的真实售出价格和它们对应的面积和房龄。我们希望在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为训练数据集(training data set)或训练集(training set),一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两个因素叫作特征(feature)。特征用来表征样本的特点。 损失函数 在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。 优化函数 - 随机梯度下降 当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(analytical solution)。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解

机器学习入门(一)——线性回归

╄→尐↘猪︶ㄣ 提交于 2020-02-15 01:00:31
机器学习入门(一)——线性回归 基本要素: 1、模型:例如针对房价建立简单模型,只考虑价格与时间的关系: price = w(area)area+w(age)age+b 2、数据集:找到一组真实数据并称之为训练集,我们希望通过训练集找到与真实情况最接近的上诉模型的未知参数。一条数据称之为样本,其价格为一个标签。被预测参数称为特征。 3、损失函数: 损失函数是用来计算模型与真实情况之间误差的度量函数。数值越小误差越小。 4、优化函数 当问题比较简单的时候,损失函数可能可以求出解析解,但很多情况的问题非常的复杂,模型也非常复杂,所以可能不存在解析解。 只有通过优化算法的,在有限次的迭代中,不断的减小损失函数的值。 优化函数的方法有很多如:梯度下降法、牛顿法、拟牛顿法等。其中梯度下降法是最简单的最常用的优化方法。 来源: CSDN 作者: weixin_38800710 链接: https://blog.csdn.net/weixin_38800710/article/details/104320127