regression

计算机视觉算法岗面经,2019秋招资料

旧城冷巷雨未停 提交于 2020-11-22 20:02:48
向AI转型的程序员都关注了这个号 👇👇👇 人工智能大数据与深度学习 公众号:datayx 下面试基本会问的内容,目前个人所碰到的,占比可能有所不同,有些面试官喜欢问项目,有些喜欢问基础。 介绍项目、实习,一般会问很久,在你介绍中会问各种开放性问题;通常我的面试中这个占很大篇幅,60%-90%; 问算法相关,包括ML\DL\图像处理等的基础知识,占40%-60%,其中大概ML40%,DL10%,图像处理10%; 问数学基础,大部分是概率论,占5%; 问语言,C++,STL容器之类的,占10%;python也会问一点; 编程题,一般2、3题; Linux命令,一般问几个,不经常问到; 1、HR面 自我介绍 你和竞争者相比的优势是什么 实习收获了什么 从实习导师身上学到了什么 导师给你的意见是什么 从面试官身上学到了什么 .秋招意向的企业有哪些 你为什么想来我们公司? 你来了之后的三年怎么打算的? 讲一讲实习公司的产品架构,比如一个新的需求产生到落地的流程是怎样? 优缺点 介绍项目,难点,从中学到什么,重新做如何改进 期望薪资 自己主动学习过哪些知识,通过什么方式学的 后面打算学习什么知识,为什么 英语怎么样 兴趣 竞赛、考研保研 团队合作遇到的分歧 有没有投过其他公司,有拿到offer吗? 项目中怎么分工的,有遇到过水平低的吗,是怎么沟通的 对你帮助很大的一个人 学习的路径,怎么学习

目标检测论文整理

早过忘川 提交于 2020-11-18 08:38:07
最近开始看一些object detection的文章,顺便整理一下思路。排版比较乱,而且几乎所有图片都是应用的博客或论文,如有侵权请联系我。 文章阅读路线参考 目前已完成的文章如下,后续还会继续补充( 其中加粗的为精读文章 ): RCNN Overfeat MR-CNN SPPNet Fast RCNN A Fast RCNN Faster RCNN FPN R-FCN Mask RCNN YOLO YOLO 9000 YOLO v3 SSD DSSD R-SSD RetinaNet(focal loss) DSOD Cascade R-CNN (待续) 吐槽一下,博客园的markdown竟然没有补齐功能,我还是先在本地补全再传上来吧。。。 RCNN之前的故事 Histogram of Gradient (HOG) 特征 在深度学习应用之前,图像的特征是人工定义的具有鲁棒性的特征,如SIFT,HOG等,下面简要介绍一下HOG。 8x8像素框内计算方向梯度直方图: HOG Pyramid 特征金字塔,对于不同大小的物体进行适应,设计尺度不变性特征 HOG特征 -> SVM分类 DPM模型 Deformable Part Model 加组件组合的HOG特征, 组件间计算弹性得分,优化可变形参数 如果没有弹性距离,就是BoW (Bag of Word)模型, 问题很大, 位置全部丢失:

常见面试算法:回归、岭回归、局部加权回归

五迷三道 提交于 2020-11-10 03:37:22
向AI转型的程序员都关注了这个号 👇👇👇 大数据挖掘DT机器学习 公众号: datayx 回归(Regression) 概述 我们前边提到的分类的目标变量是标称型数据,而回归则是对连续型的数据做出处理,回归的目的是预测数值型数据的目标值。 回归 场景 回归的目的是预测数值型的目标值。最直接的办法是依据输入写出一个目标值的计算公式。 假如你想要预测兰博基尼跑车的功率大小,可能会这样计算: HorsePower = 0.0015 * annualSalary - 0.99 * hoursListeningToPublicRadio 这就是所谓的 回归方程(regression equation) ,其中的 0.0015 和 -0.99 称作 回归系数(regression weights) ,求这些回归系数的过程就是回归。一旦有了这些回归系数,再给定输入,做预测就非常容易了。具体的做法是用回归系数乘以输入值,再将结果全部加在一起,就得到了预测值。我们这里所说的,回归系数是一个向量,输入也是向量,这些运算也就是求出二者的内积。 说到回归,一般都是指 线性回归(linear regression) 。线性回归意味着可以将输入项分别乘以一些常量,再将结果加起来得到输出。 补充: 线性回归假设特征和结果满足线性关系。其实线性关系的表达能力非常强大,每个特征对结果的影响强弱可以由前面的参数体现

机器学习-线性回归和局部加权线性回归

限于喜欢 提交于 2020-11-10 02:29:24
机器学习-线性回归 本文代码均来自于《机器学习实战》 分类算法先说到这里,接下来说一个回归算法 线性回归 线性回归比较简单,就不怎么说了,要是模型记不得了就百度一下吧,这里列一下公式就直接上代码了 ''' Created on Jan 8, 2011 @author: Peter ''' from numpy import * #加载数据 def loadDataSet(fileName): #general function to parse tab -delimited floats #attribute的个数 numFeat = len(open(fileName).readline().split('\t')) - 1 #get number of fields dataMat = []; labelMat = [] fr = open(fileName) for line in fr.readlines(): lineArr =[] curLine = line.strip().split('\t') for i in range(numFeat): lineArr.append(float(curLine[i])) #dataMat是一个二维矩阵,labelMat是一维的 dataMat.append(lineArr) labelMat.append(float