regression

特征选择

和自甴很熟 提交于 2020-08-13 09:58:10
过滤法 单变量特征选择通过单变量统计检验选择特征 SelectKBest只保留K个最高分的特征 SelectPercentile只保留用户指定的百分比的最高得分的特征 使用常见的单变量统计检验 分类: 使用chi2卡方 f_classif方差分析 mutual_info_classif互信息 回归: 使用f_regression相关系数 mutual_info_regression互信息 # 方差过滤 from sklearn . feature_selection import VarianceThreshold from sklearn . datasets import load_digits digits = load_digits ( ) X = digits . data y = digits . target print ( X . shape ) X_var = VarianceThreshold ( threshold = 0.1 ) . fit_transform ( X ) print ( X_var . shape ) # 卡方过滤 from sklearn . feature_selection import SelectKBest , chi2 from sklearn . datasets import load_digits digits =

线性回归模型

梦想的初衷 提交于 2020-08-13 09:24:56
线性回归模型 一、线性回归的基本假设 1.线性性和可加性 假设因变量为Y,自变量为X1,X2,则回归分析的默认假设为Y=b+a1X1+a2X2+ε。 线性性:X1每变动一个单位,Y相应变动a1个单位,与X1的绝对数值大小无关。 可加性:X1对Y的影响是独立于其他自变量(如X2)的。 2.误差项(ε)之间应相互独立。 若不满足这一特性,我们称模型具有自相关性(Autocorrelation)。 3.自变量(X1,X2)之间应相互独立。 若不满足这一特性,我们称模型具有多重共线性性(Multicollinearity)。 4.误差项(ε)的方差应为常数。 若满足这一特性,我们称模型具有同方差性(Homoskedasticity),若不满足,则为异方差性(Heteroskedasticity)。 5.误差项(ε)应呈正态分布。 二、一元线性回归模型 一元线性回归模型: y=w 0 +w 1 x 多元线性回归问题(multiple linear regression): 线性约束由多个解释变量构成: y=w 0 +w 1 x 1 +w 2 x 2 +…+w n x n 项式回归分析(polynomial regression问题): 一种具有非线性关系的多元线性回归问题 y=w 0 +w 1 x 1 +w 2 x 2 2 +…+w n x n n 三、回归模型的损失函数

【小白学AI】线性回归与逻辑回归(似然参数估计)

我的梦境 提交于 2020-08-13 03:29:45
文章转自【机器学习炼丹术】 线性回归解决的是回归问题,逻辑回归相当于是线性回归的基础上,来解决分类问题。 1 公式 线性回归(Linear Regression)是什么相比不用多说了。格式是这个样子的: \(f_{w,b}(x)=\sum_i{w_ix_i}+b\) 而逻辑回归(Logistic Regression)的样子呢? \(f_{w,b}(x)=\sigma(\sum_i{w_ix_i}+b)\) 要记住的第一句话: 逻辑回归可以理解为在线性回归后加了一个sigmoid函数。将线性回归变成一个0~1输出的分类问题。 2 sigmoid sigmoid函数就是: \(\sigma(z)=\frac{1}{1+e^{-z}}\) 函数图像是: 线性回归得到大于0的输出,逻辑回归就会得到0.5~1的输出; 线性回归得到小于0的输出,逻辑回归就会得到0~0.5的输出; 这篇文章的重点,在于 线性回归的参数估计使用的最小二乘法 ,而 而逻辑回归使用的是似然估计的方法 。(当然,两者都可以使用梯度下降的方法)。 3 似然估计逻辑回归参数 举个例子,现在我们有了一个训练数据集,是一个二分类问题: 上面的 \(x^1\) 是样本,下面的 \(C_1\) 是类别,总共有两个类别。 现在假设我们有一个逻辑回归的模型: \(f_{w,b}(x)=\sigma(\sum_i{w_ix_i}+b)

八年阿里测试大佬,对非UI自动化测试和UI自动化测试理解与分析!!! 机密文件!!!随时会删!!!

点点圈 提交于 2020-08-12 04:12:22
先抄一段话,来说什么是自动化测试:Test automation In software testing, test automation is the use of special software (separate from the software being tested) to control the execution of tests and the comparison of actual outcomes with predicted outcomes. (在软件测试中,测试自动化是使用特殊的软件(与被测试的软件分离)来控制测试的执行以及实际结果与预测结果的比较。) 本篇文章也不打算总结有多少种测试,他们怎么分类,我们只讲自动化测试…… 上边一段话也讲了什么是自动化测试,简单来讲就是一个操作软件的软件,然后可以对操作的结果进行验证。这里的定义是跟被测软件分离,这个我不是很同意这句话,有些自动化测试是进程内的,需要inject代码来运行测试代码,甚至有些直接类似病毒附加二进制代码并且运行在被测程序的进程内(确实见过一个软件是这么做的,直接改二进制代码然后在进程内运行一个socket server来执行测试)。 既然是一种软件,那我们就简单按照有没有UI,分为非UI和UI的自动化测试程序: 常见的非UI自动化 大部分的Unit Test API test

做目标检测,这6篇就够了:CVPR 2020目标检测论文盘点

≯℡__Kan透↙ 提交于 2020-08-11 19:15:22
CVPR 2020 会议上,有哪些目标检测论文值得关注? 选自heartbeat,作者:Derrick Mwiti,机器之心编译,参与:陈萍。 目标检测是计算机视觉中的经典问题之一。凭借大量可用数据、更快的 GPU 和更好的算法,现在我们可以轻松训练计算机以高精度检测出图像中的多个对象。 前不久结束的 CVPR 2020 会议在推动目标检测领域发展方面做出了一些贡献,本文就为大家推荐其中 6 篇有价值的目标检测论文。 论文清单 A Hierarchical Graph Network for 3D Object Detection on Point Clouds HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud Camouflaged Object Detection Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector D2Det: Towards High-Quality Object Detection and Instance Segmentation 1. A

Math4DS 直播 NO.3 |普林斯顿大学统计与机器学习中心教授王梦迪

柔情痞子 提交于 2020-08-11 18:18:46
Online Seminar on Mathematical Foundations of Data Science (Math for DS) [1]是在线的、每周举办的系列研讨会。研讨会旨在讨论数据科学、机器学习、统计以及优化背后的数学原理,邀请了北美诸多知名学者进行主题演讲。 @运筹OR帷幄 作为合作媒体,将在其B站持续为大家带来直播和回放。 Online Seminar on Mathematical Foundations of Data Science(Math4DS)是在线的、每周举办的系列研讨会,其内容涵盖数据科学、机器学习、统计以及优化背后的数学基础。 在线研讨会将在Zoom上进行,有关研讨会的公告和Zoom链接,可通过点击阅读原文,链接到国内镜像网址获得。 此外,『运筹OR帷幄』公众号平台会及时预告研讨会的最新消息,由于Zoom会议的人数上限,我们会在Bilibili为大家带来研讨会的直播和回放,诚邀各位参与和观看。 研讨会邀请到诸多知名学者进行主题演讲,目前受邀参加的有: Math for DS 第三期线上直播预告 主题: On the Statistical Complexity of Reinforcement Learning 嘉宾:王梦迪 时间:北京时间5月27日凌晨三点 地点:Zoom、『运筹OR帷幄』哔哩哔哩直播间 主题介绍 Recent

非凸问题的求解方法以及连续凸逼近SCA(Successive Convex Approximation)方法

假装没事ソ 提交于 2020-08-11 14:46:03
非凸问题的求解方法以及连续凸逼近SCA(Successive Convex Approximation)方法 非凸问题的转换形式 针对形如下式的函数: min ⁡ x ∈ X V ( x ) = F ( x ) + G ( x ) \min\limits_{{\bf{x}}\in X} V(x)=F(x)+G(x) x ∈ X min ​ V ( x ) = F ( x ) + G ( x ) ;[1] 其中F为光滑的(不一定convex),G是convex的但是可能不可微,且存在:对于n维实矢量空间,有 X = X 1 × . . . × X N X=X_1 \times...\times X_N X = X 1 ​ × . . . × X N ​ ; x = ( x 1 , . . . , x N ) \bf{x} =(x_1,...,x_N) x = ( x 1 ​ , . . . , x N ​ ) ; 且 G ( x ) = ∑ i = 1 N g i ( x i ) G(x)=\sum\limits_{i = 1}^N g_i(\bf{x_i}) G ( x ) = i = 1 ∑ N ​ g i ​ ( x i ​ ) . 具体实例求解方法: 1)当 G ( x ) = 0 G({\bf{x}})=0 G ( x ) = 0 , 该问题简化为一个具有凸约束的光滑的

两天的时间,我们能用来做什么?

时光总嘲笑我的痴心妄想 提交于 2020-08-11 12:32:37
(这里是本章会用到的 GitHub 地址,我给它起名为了 carefree-ml ,观众老爷们可以赏一个 star 和 fork 么 ( σ'ω')σ) carefree-ml ​ github.com 观众老爷们大家好!最近实在太忙,回首一看上篇专栏文章已经是 两年半 前的事了(?!),所以今天想着写出一篇来撑撑场子(喂 但感觉已经没有当初写专栏的感觉了,所以可能画风会变不少,观众老爷们还望不要介意(逃 (说到底上面这两段就是原封不动地把上篇的前两段粘过来的这样真的好吗 这次想和大家分享的是我最近面试实验室实习生面试到头晕目眩时突发奇想(不)、并用两天时间实现的一个 repo。实现这个 repo 恰好也算是达成了我一直以来未竟的两个心愿: 探索机器学习算法到底可以简化成什么样 探索各种机器学习算法间的共性究竟有多少 现在其实人工智能的热度也渐渐下来了,所以这篇文章更像是为还对一些小细节感兴趣的观众老爷们准备的惊喜礼物吧。如果你恰好也有上述这两个疑惑,又或是想教导其他人这方面的直观,那么 carefree-ml 可能就会比较适合你。但是,如果你对机器学习有着更高的追求,对各种美妙的性质有着探索的欲望,那么 carefree-ml 反而可能会激怒你,因为它省略了很多前人研究出来的结晶 注:这篇文章中可能会冒出些大家不太熟悉的名词;我会对之前写过相应文章的给个相应的链接

吐血整理,2020最全的软件测试面试题(含答案!含答案!含答案!)

孤街浪徒 提交于 2020-08-11 06:35:07
软件的生命周期(prdctrm) 计划阶段(planning)-〉需求分析(requirement)-〉设计阶段(design)-〉编码(coding)->测试(testing)->运行与维护(running maintrnacne) 测试用例 用例编号  测试项目  测试标题  重要级别  预置条件  输入数据  执行步骤   预期结果 1、问:你在测试中发现了一个bug,但是开发经理认为这不是一个bug,你应该怎样解决? 首先,将问题提交到缺陷管理库里面进行备案。 然后,要获取判断的依据和标准: 根据需求说明书、产品说明、设计文档等,确认实际结果是否与计划有不一致的地方,提供缺陷是否确认的直接依据; 如果没有文档依据,可以根据类似软件的一般特性来说明是否存在不一致的地方,来确认是否是缺陷; 根据用户的一般使用习惯,来确认是否是缺陷; 与设计人员、开发人员和客户代表等相关人员探讨,确认是否是缺陷; 合理的论述,向测试经理说明自己的判断的理由,注意客观、严谨,不参杂个人情绪。 等待测试经理做出最终决定,如果仍然存在争议,可以通过公司政策所提供的渠道,向上级反映,并有上级做出决定。 2、问:给你一个网站,你如何测试? 首先,查找需求说明、网站设计等相关文档,分析测试需求。 制定测试计划,确定测试范围和测试策略,一般包括以下几个部分:功能性测试;界面测试;性能测试;数据库测试

SPSS for Mac 26 岭回归及语法(含 include 安装路径)

安稳与你 提交于 2020-08-11 05:33:39
浏览CSDN次数比较多了,学到不少技能,也想分享一下自己的一点点收获。点进来的朋友们,本经验只适用于Mac 10.15.6,好吧,其他的机型是否适合仍然未知,不过一些思路和方法仍然有借鉴意义。 准备: ①SPSS for Mac 26软件 【下载地址:https://mp.weixin.qq.com/s/xMzci8HFrB-fjAF7G-xcAA】 上面是破jie版,如果想买正版的话应该官网可下。 ②Mac book Air 一台 先按照网上的教程,小编自己找了一些SPSS 与岭回归相关的语法资料,输入进去各种问题,坑!总结可能的原因如下: ①把英文界面在安装时改为了简体中文,后来正面不是; ②文件夹权限问题,Mac升级以后对文件夹的权限管理更严格了; ③显示第一个字母不能识别什么的,估计是语法问题; ④变量视图和数据视图没调整好,因为小编也是头一次用; ⑤软件本身存在问题,这个在后面的摸索中也否定了。 好了,现在公布岭回归的语法: 这是我在安装的SPSS上,点击帮助——命令语法参考——PDF文档中,搜索“Ridge Regression”后——发现的关于岭回归的语法,在Mac其他版本或者Windows上应该也能找到吧。 怎么理解上面的语法呢?(其实看到这儿,你也差不多应该会了,哈哈) 这是我根据自己的电脑配置的岭回归语法: INCLUDE '/Applications/IBM