intercept

答读者问~R语言ggplot2添加拟合曲线并给指定点添加注释

白昼怎懂夜的黑 提交于 2021-02-20 11:05:03
image.png 昨天收到了公众号一位读者的邮件,今天的推文回答一下开头提到的问题。还是使用昨天推文的示例数据:3个品种小麦种子的7个不同的指标,这7个指标分别是 A 面积 B 周长 C紧凑度 LK 长度 WK 宽度 A_coef 偏度系数 LKG 腹沟长度 使用周长和面积构建拟合方程 首先是读入数据 seed <- read.csv( "kaggle/Seed_Data.csv" ,header=T) names(seed) <- c( "Area" , "Perimeter" , "Compactness" , "Length" , "Width" , "Asymetry.coef" , "Grove.length" , "Type" ) head(seed) seed $Type <- as.factor(seed $Type ) 拟合方程 fitted.model<-lm(Area~Perimeter,data = seed) summary(fitted.model) image.png 接下来是使用ggplot2画图 library(ggplot2) ggplot()+ geom_point(data=seed,aes(x=Perimeter,y=Area), size=5,color= "red" ,alpha=0.3)+ geom_abline(intercept

白话burp suite渗透测试利器的英文(入门版)

不想你离开。 提交于 2021-02-20 07:39:05
技术博客的可读性非常重要,这也是技术博客写作的重要原则。 电脑系统是kali linux2018.1版本,64位 burpsuite_pro_v1.7.11破解版(含下载) 链接:http://www.freebuf.com/sectool/121992.html 虽然我很支持使用正版,但是如果有破解版可以尝试入门,实在是太好了。 除了这个连接,还有独自等待博客 BurpSuitePro v1.7.31及注册机下载 链接:https://www.waitalone.cn/burpsuite1731-keygen.html BurpSuitePro v1.7.32及注册机下载 链接:https://www.waitalone.cn/burpsuite-v1732.html 我想这些完全足够使用了。 我用的是第一个下载源,下载解压,编写脚本命名为burp.sh,脚本所在文件夹启动脚本即可sh burp.sh,默认安装就好。 #!/bin/bash java -jar /root/burpsuite/BurpHelper.jar 这里不说如何使用,因为这个工具的使用是有很多可以研究的。这里想说说上面的英语单词的意思,因为这个是全英文版的。 burp suite官方网站:https://portswigger.net/burp/,社区免费版,专业版两种可以选择,后者是每年每人349美元。

How to intercept transparently stdin/out/err

南笙酒味 提交于 2021-02-19 09:27:07
问题 I would like to catch all the inputs and output of a commandline program (namely, GDB, but currently changed to ls or cat for simplicity) and redirect it into a file, for later analysis. I couldn't get anything close to working, but I can't understand what's wrong. Here is my last attempt: #!/usr/bin/env python2 import subprocess import sys import select import os def get_pipe(): fd_r, fd_w = os.pipe() return os.fdopen(fd_r, "r"), os.fdopen(fd_w, "w") out_r, out_w = get_pipe() err_r, err_w =

How to intercept transparently stdin/out/err

对着背影说爱祢 提交于 2021-02-19 09:25:43
问题 I would like to catch all the inputs and output of a commandline program (namely, GDB, but currently changed to ls or cat for simplicity) and redirect it into a file, for later analysis. I couldn't get anything close to working, but I can't understand what's wrong. Here is my last attempt: #!/usr/bin/env python2 import subprocess import sys import select import os def get_pipe(): fd_r, fd_w = os.pipe() return os.fdopen(fd_r, "r"), os.fdopen(fd_w, "w") out_r, out_w = get_pipe() err_r, err_w =

02-14 scikit-learn库之逻辑回归

蓝咒 提交于 2021-02-15 00:02:13
[TOC] 更新、更全的《机器学习》的更新网站,更有python、go、数据结构与算法、爬虫、人工智能教学等着你:<a target="_blank" href="https://www.cnblogs.com/nickchen121/p/11686958.html"> https://www.cnblogs.com/nickchen121/p/11686958.html </a> scikit-learn库之逻辑回归 相比较线性回归,由于逻辑回归的变种较少,因此scikit-learn库中的逻辑回归类就比较少,只有 LogisticRegression 、 LogisticRegressionCV 和 logistic_regression_path 。 接下来将会讨论这三者的区别,由于是从官方文档翻译而来,翻译会略有偏颇,有兴趣的也可以去scikit-learn官方文档查看 https://scikit-learn.org/stable/modules/classes.html#module-sklearn.linear_model ,需要注意逻辑回归和线性回归都在 sklearn.linear_model 包中。 一、LogisticRegression 1.1 使用场景 逻辑回归一般使用于分类场景,可以使用参数让普通的二元分类问题变成多分类问题。 1.2 代码 from

spring的cglib代理

允我心安 提交于 2021-02-11 15:26:48
1、被代理类Person.java 1 package com.xiaostudy; 2 3 /** 4 * @desc 被代理类 5 * 6 * @author xiaostudy 7 * 8 */ 9 public class Person { 10 11 public void add() { 12 System.out.println("add()>>>>>>>>" ); 13 } 14 15 public void update() { 16 System.out.println("update()>>>>>>>>" ); 17 } 18 19 public void delete() { 20 System.out.println("delete()>>>>>>>>" ); 21 } 22 23 } 2、切面类MyAdvice.java 1 package com.xiaostudy; 2 3 /** 4 * @desc 切面类 5 * 6 * @author xiaostudy 7 * 8 */ 9 public class MyAdvice { 10 11 /** 12 * @desc 植入代理方法的方法 13 */ 14 public void before() { 15 System.out.println("日记开始>>>>>>>>>>>" ); 16 }

Python——sklearn 中 Logistics Regression 的 coef_ 和 intercept_ 的具体意义

泄露秘密 提交于 2021-01-25 03:56:35
sklearn 中 Logistics Regression 的 coef_ 和 intercept_ 的具体意义 ​ 使用 sklearn 库可以很方便的实现各种基本的机器学习算法,例如今天说的逻辑斯谛回归(Logistic Regression),我在实现完之后,可能陷入代码太久,忘记基本的算法原理了,突然想不到**coef_ 和 intercept_**具体是代表什么意思了,就是具体到公式中的哪个字母,虽然总体知道代表的是模型参数。 正文 我们使用 sklearn 官方的一个例子来作为说明,源码可以从 这里 下载,下面我截取其中一小段并做了一些修改: import numpy as np import matplotlib.pyplot as plt from sklearn.datasets import make_blobs from sklearn.linear_model import LogisticRegression # 构造一些数据点 centers = [[-5, 0], [0, 1.5], [5, -1]] X, y = make_blobs(n_samples=1000, centers=centers, random_state=40) transformation = [[0.4, 0.2], [-0.4, 1.2]] X = np.dot(X,

回归算法比较【线性回归,Ridge回归,Lasso回归】

爱⌒轻易说出口 提交于 2021-01-08 08:58:29
代码实现: 1 # -*- coding: utf-8 -*- 2 """ 3 Created on Mon Jul 16 09:08:09 2018 4 5 @author: zhen 6 """ 7 8 from sklearn.linear_model import LinearRegression, Ridge, Lasso 9 import mglearn 10 from sklearn.model_selection import train_test_split 11 import matplotlib.pyplot as plt 12 import numpy as np 13 # 线性回归 14 x, y = mglearn.datasets.load_extended_boston() 15 x_train, x_test, y_train, y_test = train_test_split(x, y, random_state= 0) 16 17 linear_reg = LinearRegression() 18 lr = linear_reg.fit(x_train, y_train) 19 20 print ( " lr.coef_:{} " .format(lr.coef_)) # 斜率 21 print ( " lr.intercept_:{} "

【机器学习】正则化的线性回归 —— 岭回归与Lasso回归

南笙酒味 提交于 2021-01-08 07:52:18
注 :正则化是用来防止过拟合的方法。在最开始学习机器学习的课程时,只是觉得这个方法就像某种魔法一样非常神奇的改变了模型的参数。但是一直也无法对其基本原理有一个透彻、直观的理解。直到最近再次接触到这个概念,经过一番苦思冥想后终于有了我自己的理解。 0. 正则化(Regularization ) 前面使用多项式回归,如果多项式最高次项比较大,模型就容易出现过拟合。正则化是一种常见的防止过拟合的方法,一般原理是在代价函数后面加上一个对参数的约束项,这个约束项被叫做 正则化项 (regularizer)。在线性回归模型中,通常有两种不同的正则化项: 加上所有参数(不包括$\theta_0$)的绝对值之和,即$l1$范数,此时叫做Lasso回归; 加上所有参数(不包括$\theta_0$)的平方和,即$l2$范数,此时叫做岭回归. 看过不少关于正则化原理的解释,但是都没有获得一个比较直观的理解。下面用代价函数的图像以及正则化项的图像来帮助解释正则化之所以起作用的原因。 0.1 代价函数的图像 为了可视化,选择直线方程进行优化。假设一个直线方程以及代价函数如下: $\hat{h}_{\theta} = \theta_0 + \theta_1 x$,该方程只有一个特征$x$,两个参数$\theta_0$和$\theta_1$ $J(\theta) = \frac{1}{m} \sum_{i=1}

R语言学习笔记之十

家住魔仙堡 提交于 2021-01-06 07:23:35
摘要: 仅用于记录R语言学习过程: 内容提要: 描述性统计;t检验;数据转换;方差分析;卡方检验;回归分析与模型诊断;生存分析;COX回归 写在正文前的话,关于基础知识,此篇为终结篇,笔记来自医学方的课程,仅用于学习R的过程。 正文: 描述性统计 n 如何去生成table1 用 table()函数 ,快速汇总频数 u 生成四格表:table(行名,列名) > table(tips$sex,tips$smoker) No Yes Female 54 33 Male 97 60 u addmargins()函数 :对生成的table表格进行计算 > table(esoph$agegp,esoph$ncases) 0 1 2 3 4 5 6 8 9 17 25-34 14 1 0 0 0 0 0 0 0 0 35-44 10 2 2 1 0 0 0 0 0 0 45-54 3 2 2 2 3 2 2 0 0 0 55-64 0 0 2 4 3 2 2 1 2 0 65-74 1 4 2 2 2 2 1 0 0 1 75+ 1 7 3 0 0 0 0 0 0 0 > tt <- table(esoph$agegp,esoph$ncases) > addmargins(tt,margin = c(1,2)) # margin 1表示行,2表示列 0 1 2 3 4 5 6 8 9 17