regression

[转]软件测试的方法

生来就可爱ヽ(ⅴ<●) 提交于 2020-12-24 18:37:50
一、软件测试的目的 发现缺陷 尽早和尽量多的发现被测对象中的缺陷,应该是测试人员测试过程中最常提起的一个测试目标,也是所谓测试价值的一个的重要体现。发现缺陷的目的是推动开发人员定位和修复问题,测试人员通过再测试和回归测试,确保开发人员已修复缺陷,并没有影响原来正常的区域,从而提高产品质量。开发生命周期的每个阶段,都应该有测试的参与,并尽量多的发现本阶段的缺陷,从而大大提高本阶段的缺陷阶段遏制能力,从而提高测试效率、降低成本和提高质量。 二、软件测试的两大分类 1、白盒测试 白盒测试是把测试对象看作一个打开的盒子。利用白盒测试法进行动态测试时,需要测试软件产品的内部结构和处理过程,不需测试软件产品的功能。 白盒测试法的覆盖标准有逻辑覆盖、循环覆盖和基本路劲测试。其中逻辑覆盖包括语句覆盖、判断覆盖、条件覆盖、判定/条件覆盖、条件组合覆盖和路径覆盖。 白盒测试是知道产品内部工作过程,可通过测试来检测产品内部动作是否按照规格说明书的规定正常进行,按照程序内部的结构测试程序,检验程序中的每条通路是否都有能按预定要求正确工作,而不顾它的功能,白盒测试的主要方法有逻辑驱动、基路测试等,主要用于软件验证。 2、黑盒测试 黑盒测试是根据软件的规格对软件进行的测试,这类测试不考虑软件内部的运作原理,因此软件对用户来说就像一个黑盒子。 测试人员以用户的角度

【转载】软件测试的方法

℡╲_俬逩灬. 提交于 2020-12-24 18:37:30
一、软件测试的目的 发现缺陷 尽早和尽量多的发现被测对象中的缺陷,应该是测试人员测试过程中最常提起的一个测试目标,也是所谓测试价值的一个的重要体现。发现缺陷的目的是推动开发人员定位和修复问题,测试人员通过再测试和回归测试,确保开发人员已修复缺陷,并没有影响原来正常的区域,从而提高产品质量。开发生命周期的每个阶段,都应该有测试的参与,并尽量多的发现本阶段的缺陷,从而大大提高本阶段的缺陷阶段遏制能力,从而提高测试效率、降低成本和提高质量。 二、软件测试的两大分类 1、白盒测试 白盒测试是把测试对象看作一个打开的盒子。利用白盒测试法进行动态测试时,需要测试软件产品的内部结构和处理过程,不需测试软件产品的功能。 白盒测试法的覆盖标准有逻辑覆盖、循环覆盖和基本路劲测试。其中逻辑覆盖包括语句覆盖、判断覆盖、条件覆盖、判定/条件覆盖、条件组合覆盖和路径覆盖。 白盒测试是知道产品内部工作过程,可通过测试来检测产品内部动作是否按照规格说明书的规定正常进行,按照程序内部的结构测试程序,检验程序中的每条通路是否都有能按预定要求正确工作,而不顾它的功能,白盒测试的主要方法有逻辑驱动、基路测试等,主要用于软件验证。 2、黑盒测试 黑盒测试是根据软件的规格对软件进行的测试,这类测试不考虑软件内部的运作原理,因此软件对用户来说就像一个黑盒子。 测试人员以用户的角度

kaggle-titanic实战--数据挖掘实例

a 夏天 提交于 2020-12-24 06:35:15
kaggle是一个国外的数据挖掘竞赛平台,大家做完竞赛之后会写一些指导,因此可以通过其他人写的指导文件进行学习, kaggle传送门 。 其中有一个入门类的分析问题是分析Titanic号的救援问题,分析哪些因素会影响到是否被救援,首先打开Titanic这个问题的具体页面, Titanic: Machine Learning from Disaster , 先看一看overview里面的description和evaluation,看看问题背景和最终需要预测的内容,然后点击数据,下载三个csv格式的数据集,第一个 train.csv 是训练集,第二个 test.csv 是测试集,第三个 gender_submission.csv 是验证集, 下载好之后打开pycharm,新建名为Titanic的工程,新建Titanic.py开始进行分析 首先,导入需要用到的包 import numpy as np import pandas as pd import matplot.pyplot as plt from pandas import DataFrame,Series 接下来导入数据 train_data = pd.read_csv('train.csv') 查看数据的信息 train_data.info() 得到的数据信息如下 <class 'pandas.core.frame

数据科学导引(大纲)

我的梦境 提交于 2020-12-22 04:46:52
线性回归(Linear Regression) 求解方法 最小二乘法 极大似然估计法(MLE) 梯度下降法 推广 多项式线性回归 广义线性回归 正则化 L1正则化(Lasso) L2正则化(Ridge,岭回归) 代码 分类(Classification) 最近邻(Nearest Neighbor) K Nearest Neigbor(K近邻,KNN) kd树 决策树(Decision Tree) 感知机(Perceptron) 逻辑回归(Logistic Regression) 支持向量机(Support Vector Machine,SVM) 神经网络(Neural Networks) 朴素贝叶斯(Naive Bayes) 集成模型(Ensemble Models) Bootstrap Aggregating(Bagging) Boosting Stacking Bagging减少variance,Boosting减少bias? 聚类(Clustering) K-means 分层聚类(Hierarchical Clustering) 谱聚类(Spectral Clustering) 基于密度的聚类(Density-based Clustering) 聚类的评判标准 降维(Dimensionality Reduction) 线性降维方法 PCA(Principle

台湾大学林轩田机器学习基石课程学习笔记15 -- Validation

五迷三道 提交于 2020-12-18 18:26:05
台湾大学林轩田机器学习基石课程学习笔记15 -- Validation 上节课我们主要讲了为了避免overfitting,可以使用regularization方法来解决。在之前的Ein上加上一个regularizer,生成Eaug,将其最小化,这样可以有效减少模型的复杂度,避免过拟合现象的发生。那么,机器学习领域还有许多选择,如何保证训练的模型具有良好的泛化能力?本节课将介绍一些概念和方法来解决这个选择性的问题。 1 Model Selection Problem 机器学习模型建立的过程中有许多选择,例如对于简单的二元分类问题,首先是算法A的选择,有PLA,pocket,linear regression,logistic regression等等;其次是迭代次数T的选择,有100,1000,10000等等;之后是学习速率η的选择,有1,0.01,0.0001等等;接着是模型特征转换Φ的选择,有linear,quadratic,poly-10,Legendre-poly-10等等;然后是正则化regularizer的选择,有L2,L1等等;最后是正则化系数λ的选择,有0,0.01,1等等。不同的选择搭配,有不同的机器学习效果。我们的目标就是找到最合适的选择搭配,得到一个好的矩g,构建最佳的机器学习模型。 假设有M个模型,对应有H1,H2,⋯,HM,即有M个hypothesis

吴恩达机器学习笔记—Logistic Regression 逻辑回归

别说谁变了你拦得住时间么 提交于 2020-12-16 15:58:30
Logistic Regression逻辑回归虽言为“回归”,但是它不同于之前我们所学习的单、多变量回归用于预测,它是一个用于分类的模型。吴老师课件上的定义:logistic回归又称logistic 回归分析 ,是一种广义的线性回归分析模型,常用于数据挖掘,疾病自动诊断,经济预测等领域。 1、分类 分类将样本赋予标签属性,即函数输出值是其归属类别,最简单的分类就是0_1分类,指预测结果只有两类。例如:判断一个肿瘤是恶性的还是良性的。但是怎么才能让线性函数输出0和1?我们可以把线性函数返回的值按一定的阈值分为两类,比如把>=0.5类为1,<0.5为0。这样线性函数输出值转化为0和1。 2、选择假设方程: 我们知道输出的值会赋于标签“0”和“1”,之前的回归相关的内容得知, 可能远大于1或远小于0,会很奇怪。所以我们希望我们的函数方程在的输出值介于0-1之前。假设方程公式及图形如下, 输出值介于0-1之间。 3、决策边界 判别标签是1还是0的那分界线条直线称之为决策边界,如下图,通过(3,0)和(0,3)两点的直线在这里就称之为决策边界。 4、代价函数 在线性回归时,曾定义代价函数如下, 用式子 简化求和符号后的表示(即 )。 我们知道 ,最终得到的J(θ)不是凸函数,即存在多个局部最优点,而使用梯度下降法要求J(θ)是凸函数。如图 由于上述的问题

吴恩达机器学习学习笔记——Week 2——多元线性回归(Multivariate Linear Regression)

戏子无情 提交于 2020-12-16 15:34:41
一、课件及课堂练习 1. 多个特征值(多变量) 课堂练习: 2. 多元梯度下降 课堂练习: 3. 梯度下降实践1——特征值缩放(均值归一化) 课堂练习: 4. 梯度下降实践2——学习率 课堂练习: 5. 特征数量及多项式回归 课堂练习: 6. 标准方程 课堂练习: 7. 标准方程法可能遇到不可逆问题 二、内容概要 1. 多个特征值 2. 多元梯度下降 3. 梯度下降实践1——特征值缩放 4. 梯度下降实践2——学习率 5. 特征数量及多项式回归 6. 标准方程 7. 标准方程法可能遇到不可逆问题 三、单元测试 答案:-0.47 来源: oschina 链接: https://my.oschina.net/u/4288530/blog/4810192

Tidymodels: Plotting Predicted vs True Values using the functions collect_predictions() and ggplot() in R

北城余情 提交于 2020-12-15 04:23:40
问题 Overview I have produced four models using the tidymodels package with the data frame FID (see below): General Linear Model Bagged Tree Random Forest Boosted Trees The data frame contains three predictors: Year (numeric) Month (Factor) Days (numeric) The dependent variable is Frequency (numeric) I am following this tutorial:- https://smltar.com/mlregression.html#firstregressionevaluation Issue I would like to plot the quantitative estimates for how well my model performed and whether these

Tidymodel Package: General linear models (glm) and decision tree (bagged trees, boosted trees, and random forest) models in R

邮差的信 提交于 2020-12-13 03:13:18
问题 Issue I am attempting to undertake an analysis using the Tidymodels Package in R . I am following this tutorial below regarding decision tree learning in R:- Tutorial https://bcullen.rbind.io/post/2020-06-02-tidymodels-decision-tree-learning-in-r/ I have a data frame called FID (see below) where the dependent variable is the frequency (numeric) , and the predictor variables are:- Year (numeric), Month (factor), Monsoon (factor), and Days (numeric). I believe I have successfully followed the

How to use scale and shape parameters of gamma GLM in statsmodels

别来无恙 提交于 2020-12-12 06:15:08
问题 The task I have data that looks like this: I want to fit a generalized linear model (glm) to this from a gamma family using statsmodels . Using this model, for each of my observations I want to calculate the probability of observing a value that is smaller than (or equal to) that value. In other words I want to calculate: P(y <= y_i | x_i) My questions How do I get the shape and scale parameters from the fitted glm in statsmodels ? According to this question the scale parameter in statsmodels