regression

自动驾驶

|▌冷眼眸甩不掉的悲伤 提交于 2020-11-07 10:20:03
自动驾驶开发流程 实现一个智能驾驶系统,会有几个层级: 感知层 → 融合层 → 规划层 → 控制层 更具体一点为: 传感器层 → 驱动层 → 信息融合层 → 决策规划层 → 底层控制层 各个层级之间都需要编写代码,去实现信息的转化。 最基本的层级有以下几类: 采集及预处理、坐标转换、信息融合 采集 传感器跟我们的PC或者嵌入式模块通信时,会有不同的传输方式。 比如我们采集来自摄像机的图像信息,有的是通过千兆网卡实现的通信,也有的是直接通过视频线进行通信的。再比如某些毫米波雷达是通过CAN总线给下游发送信息的,因此我们必须编写解析CAN信息的代码。 不同的传输介质,需要使用不同的协议去解析这些信息,这就是上文提到的 “驱动层” 。 通俗地讲就是把传感器采集到的信息全部拿到,并且编码成团队可以使用的数据。 预处理 传感器的信息拿到后会发现不是所有信息都是有用的。 传感器层将数据以一帧一帧、固定频率发送给下游,但下游是无法拿每一帧的数据去进行决策或者融合的。为什么? 因为传感器的状态不是100%有效的,如果仅根据某一帧的信号去判定前方是否有障碍物(有可能是传感器误检了),对下游决策来说是极不负责任的。因此上游需要对信息做预处理,以保证车辆前方的障碍物在时间维度上是一直存在的,而不是一闪而过。 这里就会使用到智能驾驶领域经常使用到的一个算法——卡尔曼滤波。 坐标转换

七种回归分析方法 个个经典

北城以北 提交于 2020-11-06 05:14:34
点击上方蓝字 记得关注我们哦! ▼ 往期精彩回顾 ▼ 简单线性回归(一) 简单线性回归(二) 非线性回归 多重线性回归分析 二元logistic回归分析 Cox回归分析 有序多分类logistic回归分析 何为回归分析 回归分析是一种预测性的建模技术,它研究的是因变量(目标)和自变量(预测器)之间的关系。这种技术通常用于预测分析,时间序列模型以及发现变量之间的因果关系。例如,司机的鲁莽驾驶与道路交通事故数量之间的关系,最好的研究方法就是回归。 回归分析是建模和分析数据的重要工具。在这里,我们使用曲线/线来拟合这些数据点,在这种方式下,从曲线或线到数据点的距离差异最小。我会在接下来的部分详细解释这一点。 为什么用回归分析 如上所述,回归分析估计了两个或多个变量之间的关系。下面,让我们举一个简单的例子来理解它: 比如说,在当前的经济条件下,你要估计一家公司的销售额增长情况。现在,你有公司最新的数据,这些数据显示出销售额增长大约是经济增长的2.5倍。那么使用回归分析,我们就可以根据当前和过去的信息来预测未来公司的销售情况。 使用回归分析的好处良多。具体如下: 它表明自变量和因变量之间的显著关系; 它表明多个自变量对一个因变量的影响强度。 回归分析也允许我们去比较那些衡量不同尺度的变量之间的相互影响,如价格变动与促销活动数量之间联系。这些有利于帮助市场研究人员

Word Embedding 稳定性研究

回眸只為那壹抹淺笑 提交于 2020-10-28 17:30:23
https://zhuanlan.zhihu.com/p/113339927 我们在production的系统里面会遇到一个问题,模型如何处理新进来的数据。重新训练的话下游的prediction可能会非常不一样,但是我们不知道到底怎么不一样。之前在MLSys 2020 看到了这个关于稳定心的文章,所以跟大家分享一下。这个paper尝试总结retraining对embedding的影响到底有多大,原文在这里 https://proceedings.mlsys.org/static/paper_files/mlsys/2020/104-Paper.pdf ​ proceedings.mlsys.org 既然我们要讨论稳定性,我们得先给一个稳定性的定义 这个定义的逻辑本身是根据下游的task来定义上游够不够稳定,如果完全稳定的话下游的模型就不用retrain了。这里文章讲用zero one可能是因为讨论的是NLP的问题,假设是ctr的话这种zero one loss就不合理。 对于word embedding的算法,文中用了三种 Matrix Completion GloVE word2vec quantization用的是uniform quantization,原文在这里 https://arxiv.org/pdf/1909.01264.pdf ​ arxiv.org

机器学习-常见的监督学习模型

纵饮孤独 提交于 2020-10-28 08:57:45
机器学习可以分为三大类:监督学习、非监督学习、强化学习。 今天学习监督学习模型,根据输出是连续的还是离散的,又分为 回归问题 和 分类问题。 监督学习的训练数据,都是带‘答案’的,通过输入和答案之间的对应关系,获取其中的规则。 1,朴素贝叶斯分类器 Naive Bayes Classifier 假设样本的特征(被观察现象的一个可以测量的属性)在给定分类的条件下是相互独立的。 选择重要的特性对于传统的机器学习方法至关重要。 简单来讲这就是个概率计算 假设输入 X = (x1,x2,...,xn) 在给定 x的条件下 分类Ck的概率: P(Ck|X) = ∏P(xi|Ck)P(Ck) / P(X) 解释:给定X, P(X) 是一个固定的归一化的常量,因此可以忽略;P(xi|Ck) 和 P(Ck) 是通过训练数据集获取计算来的; 这样就可以计算给定条件X下的各个分类的概率,取概率最大的作为分类结果。 需要注意个细节: 如果 Xi 过多,相乘可能出现下溢(0),可以把乘法转为取对数相加;对于训练集中未出现的值的概率,可以忽略。 2,逻辑回归 Logistic Regression 线性回归模型: y = w T x + b 这个输出范围是 负无穷 到 正无穷 要转换为分类问题,需要使用 Sigmoid 函数 σ(x) = 1 / (1 + e -x ) 范围 (0,1) 逻辑回归模型:f

机器学习基础随笔(6)Deep Learning

邮差的信 提交于 2020-10-27 03:26:27
Deep Learning 参考资料:台湾大学李宏毅机器学习课程和PPT Deep learning跟machine learning一样,也是“大象放进冰箱”的三个步骤: 在Deep learning的step1里define的那个function,就是neural network神经网络 我个人的理解: 深度学习就是多层神经网络,有着多层隐藏层,所以显得有“深度” Neural Network concept 把多个Logistic Regression前后连接在一起,然后把一个Logistic Regression称之为neuron(神经元),整个称之为neural network 我们可以用不同的方法连接这些neuron,就可以得到不同的structure,neural network里的每一个Logistic Regression都有自己的weight和bias,这些weight和bias集合起来,就是这个network的parameter,我们用 θ \theta θ 来描述 Fully Connect Feedforward Network 那该怎么把它们连接起来呢?这是需要你手动去设计的,最常见的连接方式叫做 Fully Connect Feedforward Network(全连接前馈网络) 如果一个neural network的参数weight和bias已知的话