iris

Iris配置

大憨熊 提交于 2020-02-05 09:38:36
package main import ( "github.com/kataras/iris" "os" "encoding/json" "fmt" ) /** * Iris配置设置案例 */ func main() { //1.新建app实例 app := iris.New() //一、通过程序代码对应用进行全局配置 app.Configure(iris.WithConfiguration(iris.Configuration{ //如果设置为true,当人为中断程序执行时,则不会自动正常将服务器关闭。如果设置为true,需要自己自定义处理。 DisableInterruptHandler: false, //该配置项表示更正并将请求的路径重定向到已注册的路径 //比如:如果请求/home/ 但找不到此Route的处理程序,然后路由器检查/home处理程序是否存在,如果是,(permant)将客户端重定向到正确的路径/home。 //默认为false DisablePathCorrection: false, // EnablePathEscape: false, FireMethodNotAllowed: false, DisableBodyConsumptionOnUnmarshal: false, DisableAutoFireStatusCode: false,

Iris路由和路由组

守給你的承諾、 提交于 2020-02-05 09:28:53
package main import ( "github.com/kataras/iris" "github.com/kataras/iris/context" ) func main() { app := iris.New() //1.handle方式处理请求 //同一用来处理请求的方法 //GET app.Handle("GET", "/userinfo", func(context context.Context) { path := context.Path() app.Logger().Info(path) app.Logger().Error(" request path :", path) }) //post app.Handle("POST", "/postcommit", func(context context.Context) { path := context.Path() app.Logger().Info(" post reuqest, the url is : ", path) context.HTML(path) }) //正则表达式:{name} app.Get("/weather/{date}/{city}", func(context context.Context) { path := context.Path() //使用:context

0_RF.py

谁都会走 提交于 2020-02-02 03:04:44
from sklearn . ensemble import RandomForestClassifier from sklearn . datasets import make_classification from sklearn . datasets import load_iris iris = load_iris ( ) y = iris [ 'target' ] X = iris [ 'data' ] clf = RandomForestClassifier ( criterion = "gini" , max_depth = 10 , n_estimators = 10 , oob_score = True ) #n_estimators:它表示建立的树的数量。 #max_depth树的深度。 #n_jobs:超参数表示引擎允许使用处理器的数量。 若值为1, # 则只能使用一个处理器。 值为-1则表示没有限制。 #oob_score :它是一种随机森林交叉验证方法,即是否采用袋外样本来评估模型的 # 好坏。默认是False。推荐设置为True,因为袋外分数反应了一个模型拟合后的 # 泛化能力。 clf . fit ( X , y ) print ( clf . feature_importances_ ) #feature_importances_ 特征筛选.

集成学习voting Classifier在sklearn中的实现

痞子三分冷 提交于 2020-01-29 01:57:52
投票法(voting)是集成学习里面针对分类问题的一种结合策略。基本思想是选择所有机器学习算法当中输出最多的那个类。 分类的机器学习算法输出有两种类型:一种是直接输出类标签,另外一种是 输出类概率 ,使用前者进行投票叫做硬投票(Majority/Hard voting),使用后者进行分类叫做 软投票(Soft voting) 。 sklearn中的VotingClassifier是投票法的实现。 硬投票 硬投票是选择算法输出最多的标签,如果标签数量相等,那么按照升序的次序进行选择。下面是一个例子: from sklearn import datasets from sklearn.model_selection import cross_val_score from sklearn.linear_model import LogisticRegression from sklearn.naive_bayes import GaussianNB from sklearn.ensemble import RandomForestClassifier from sklearn.ensemble import VotingClassifier iris = datasets.load_iris() X, y = iris.data[:,1:3], iris.target clf1 =

KNN算法

放肆的年华 提交于 2020-01-27 01:33:29
KNN算法 问题提出 依旧是分类问题,现在有了一数据集,数据集中的每个数据都有一个标签,那么多对于一个新的数据,他应该是属于哪个集合,也就是说他的标签应该是什么? 例子 比如当前这个图,红色的点具有标签A,蓝色的点具有标签B,现在来了一个新的点黑色点,那么这个黑色的点应该属于那一类? 直观的来看,黑色的点应该是属于红色标记的点。也就是标签应该是A,因为一个很直观的感受就是它距离红色的点近,根据物以类聚,人以群分的概念它应该是红色点集合内的。 算法的提出 为了解决上述分类的问题,提出了KNN(k-NearestNeighbor)算法,也就是k近邻算法。算法的核心思想就是找距离当前点最近的k个点,这个距离可以有多种定义,一般都是在n维空间的欧几里得距离,当然也可以被定义为其他形式下的距离。然后统计这k个点里面哪种标记最多,就把该点归类为最多的标记点 算法实现步骤 根据上面的描述,首先第一步就是要确定k,确定选取多少个点来做参考。那么这个k最好不要是标记种类数的倍数。什么意思?举个例子,就像刚才上面的那个图,k最好选取奇数,因为当前数据集中存在两个标签,如果k选取偶数,那么一旦发现计算得到的k个数据中两种标签数量相等,那么就很难说把这个点分给谁了。确定k之后,就计算每个点到该该点的距离,然后排序,统计这k个中标签数量最多的是哪一个。这样就完成了 代码实现 """ x_test:测试数据

Scikit Learn: 在python中机器学习

霸气de小男生 提交于 2020-01-26 09:24:10
参考: sklearn 数据集认识: sklearn中的iris数据集有5个key: [‘target_names’, ‘data’, ‘target’, ‘DESCR’, ‘feature_names’] target_names : 分类名称 [‘setosa’ ‘versicolor’ ‘virginica’] target:分类(150个) (150L,) [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2] feature_names: 特征名称 (‘feature_names:’, [‘sepal length (cm)’, ‘sepal width (cm)’, ‘petal length (cm)’, ‘petal width

决策树《机器学习入门学习》

偶尔善良 提交于 2020-01-25 09:38:17
代码 # -*- coding: utf-8 -*- """ Created on Mon Nov 25 19:54:07 2019 @author: 刘云生 @blog:https://blog.csdn.net/liuyunshengsir 加返利机器人:lys20191020 """ from sklearn.datasets import load_iris from sklearn import tree iris = load_iris() clf = tree.DecisionTreeClassifier() clf = clf.fit(iris.data, iris.target) import pandas as pd data=pd.DataFrame(iris.data,columns=['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)']) label=pd.DataFrame(iris.target ,columns=['target']) import graphviz import os os.environ["PATH"] += os.pathsep + 'C:\\Program Files (x86)\\Graphviz2.38\\bin'

【Scikit-Learn 中文文档】使用 scikit-learn 介绍机器学习 | ApacheCN

爷,独闯天下 提交于 2020-01-23 21:34:55
中文文档: http://sklearn.apachecn.org/cn/0.19.0/tutorial/basic/tutorial.html 英文文档: http://sklearn.apachecn.org/en/0.19.0/tutorial/basic/tutorial.html GitHub: https://github.com/apachecn/scikit-learn-doc-zh (觉得不错麻烦给个 Star,我们一直在努力) 贡献者: https://github.com/apachecn/scikit-learn-doc-zh#贡献者 使用 scikit-learn 介绍机器学习 | ApacheCN 内容提要 在本节中,我们介绍一些在使用 scikit-learn 过程中用到的 机器学习 词汇,并且给出一些例子阐释它们。 机器学习:问题设置 一般来说,一个学习问题通常会考虑一系列 n 个 样本 数据,然后尝试预测未知数据的属性。 如果每个样本是 多个属性的数据 (比如说是一个多维记录),就说它有许多“属性”,或称 features(特征) 。 我们可以将学习问题分为几大类: 监督学习 , 其中数据带有一个附加属性,即我们想要预测的结果值( 点击此处 转到 scikit-learn 监督学习页面)。这个问题可以是: 分类 : 样本属于两个或更多个类

Scikit-Learn Qucik Start(文档翻译)

丶灬走出姿态 提交于 2020-01-22 08:58:27
写在前面:今天是参加DataCastle比赛的第4天,在我妄图手写Boosting然而效率低的一B的时候,用sklearn的RF(RandomForest)没有优化参数、没有特征提取的情况下,居然都比我自己写的AdaBoost要好 ,所以我们目前的工作从编码实现转到了对sklearn的熟悉,然则求一中文文档而不得,英文渣渣的我也只能自己来翻译了。一则刚入ML坑的新人也在学习过程,二则英语渣渣星人有些我可能自己也看不懂,翻译不到位忘见谅了。 An introduction to machine learning with scikit-learn 1 机器学习:问题设定 一般来说,机器学习问题可以这样来理解:我们有n个 样本 (sample)的数据集,然后去预测未知数据的属性。如果描述每个样本的数字不只一个数字,比如一个多维的条目(也叫做 多变量数据 (multivariate data)),那么这个样本就有多个属性或者 特征 。 我们可以将学习问题分为以下几类: 监督学习(supervised learning)是指样本数据中包括了我们想预测的属性,监督学习问题有以下两类: 分类(classification):样本具有两个或多个类别,我们希望通过从已标记类别的数据学习,来预测未标记数据的分类。例如,识别手写数字就是一个分类问题,其目标是将每个输入向量对应到有穷的数字类别

鸢尾花决策树分类及可视化

拥有回忆 提交于 2020-01-21 09:47:16
鸢尾花数据集简介 Iris数据集作为入门经典数据集。Iris数据集是常用的分类实验数据集,早在1936年,模式识别的先驱Fisher就在论文The use of multiple measurements in taxonomic problems中使用了它 (直至今日该论文仍然被频繁引用)。 Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。数据集包含150个数据集,分为3类,每类50个数据,每个数据包含4个属性:花萼长度(sepal length),花萼宽度(sepal width),花瓣长度(petal length),花瓣宽度(petal width),可通过4个属性预测鸢尾花卉属于(Setosa,Versicolour,Virginica)三个种类中的哪一类。在三个类别中,其中有一个类别和其他两个类别是线性可分的。 在sklearn中已内置了此数据集。 代码 import pandas as pd import pydotplus import numpy as np from IPython.display import Image, display from sklearn import preprocessing from sklearn import tree from sklearn.datasets import load_iris import