iris

KNN分类算法

纵然是瞬间 提交于 2019-12-02 01:50:39
K最近邻(KNN,K-NearestNeighbor)是1967年由Cover T和Hart P提出的一种基本分类与回归方法,它是数据挖掘分类技术中最简单的方法之一,非常容易理解应用。所谓K最近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的(一般用距离最短表示最接近)K个邻居来代表。如果K个邻居里大多数都属于某一个类别,那么该样本也被划分为这个类别。 KNN算法中所选择的邻居都是已经正确分类的对象,属于懒惰学习,即KNN没有显式的学习过程,没有训练阶段。待收到新样本后直接进行处理。 算法描述: 1)计算测试数据与各个训练数据之间的距离; 2)按照距离的递增关系进行排序; 3)选取距离最小的K个点; 4)确定前K个点所在类别的出现频率; 5)返回前K个点中出现频率最高的类别作为测试数据的预测分类. 通常k是不大于20的整数,上限是训练数据集数量n的开方,随着数据集的增大,K的值也要增大。 依赖于训练数据集和K的取值,输出结果可能会有不同。所以需要评估算法的正确率,选取产生最小误差率的K:比如我们可以提供已有数据的90%作为训练样本来训练分类器,而使用其余的10%数据去测试分类器,检测错误率是否随着K值的变化而减小。需要注意的是,10%的测试数据应该是随机选择的。 python示例1 ( sklearn包封装了KNN算法 ) import numpy as np

python起步-2

心已入冬 提交于 2019-12-01 17:07:57
仅供学习使用 练习9 绘图 身高X,体重Y 身高 体重 152 51 156 53 160 54 164 55 168 57 172 60 176 62 180 65 184 69 188 72 import matplotlib.pyplot as plt import numpy as np data = np.array([ [152, 51], [156, 53], [160, 54], [164, 55], [168, 57], [172, 60], [176, 62], [180, 65], [184, 69], [188, 72] ]) print(data.shape) x, y = data[:, 0], data[:, 1] plt.scatter(x, y) plt.xlabel('height(cm)') plt.ylabel('weight(kg)') plt.show() plt.figure() (10, 2) 练习10 这部分代码是从网站拷贝下来的 给iris数据集使用KNN分类 from sklearn import datasets from collections import Counter # 为了做投票 from sklearn.model_selection import train_test_split import numpy as

KNN-学习笔记

感情迁移 提交于 2019-12-01 17:05:29
仅供学习使用 练习1 # coding:utf-8 # 2019/10/16 16:49 # huihui # ref: import numpy as np from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier iris = datasets.load_iris() X = iris.data y = iris.target print(X, y) X_train, X_test, y_train, y_test = train_test_split(X, y,random_state=2003) clf = KNeighborsClassifier(n_neighbors=3) clf.fit(X_train, y_train) correct = np.count_nonzero((clf.predict(X_test) == y_test) == True) print("准确率:%.3f" % (correct / len(X_test))) 来源: https://www.cnblogs.com/xuehuiping/p/11694975.html

升级版光学定位— PST Iris HD

懵懂的女人 提交于 2019-12-01 10:04:52
高精度、大容积捕捉 PST Iris HD是PST Iris光学定位仪的高级版本。它配备了两个高清摄像机,可提供更大范围的测量容积和高精度6 自由度定位。PST Iris HD的分辨率和刷新率可以进行调整,以便在任何设置中实现高度精确定位。 什么情况下需要PST Iris HD? 当用户需要高精度地在较大范围进行追踪时,PST Iris HD是理想的解决方案。PST Iris和PST的主要区别详见Sunya科技官网。 PST Iris HD 规格 -设备追踪距离长达7米 -无风扇、无噪音 -条形码追踪,无需校准 -可调式红外闪光 -与外部系统同步 -帧率可调至200赫兹 -延迟15-25毫秒 -可用于Windows 和 Linux 详细性能参数可以登录官网 http://www.sunya.biz/PSTIrisHD.html 来源: https://www.cnblogs.com/sunyatech/p/11678454.html

UCI数据库

二次信任 提交于 2019-12-01 05:10:08
提供者:刘唯 UCI数据库是加州大学欧文分校(University of CaliforniaIrvine)提出的用于机器学习的数据库,这个数据库目前共有335个数据集,其数目还在不断增加,UCI数据集是一个常用的标准测试数据集。 UCI数据可以使用matlab的dlmread(或textread或者利用matlab的导入数据)读取,不过,需要先将不是数字的类别用数字,比如1/2/3等替换,否则读入不了数值,当字符了。 每个数据文件( .data)包含以“属性-值”对形式描述的很多个体样本的记录。对应的 .info文件包含的大量的文档资料。(有些文件 generate databases;他们不包含*.data文件。)作为数据集和领域知识的补充,在utilities目录里包含了一些在使用这一数据集时的有用资料。 地址 http://www.ics.uci.edu/~mlearn/MLRepository.html 使用说明 下面以UCI中IRIS为例介绍一下数据集: [1] ucidatairis中有三个文件: Index iris.data iris.names index为文件夹目录,列出了本文件夹里的所有文件,如iris中index的内容如下: Index of iris 18 Mar 1996 105 Index 08 Mar 1993 4551 iris.data 30

2、分类问题示例

删除回忆录丶 提交于 2019-11-30 19:48:24
基本概念: 只关注类别这个变量,把一条条数据划分为不同的类 目标:根据已知类别的数据集,经过训练得到一个分类模型,再用模型对类别未知的数据进行分类。 过程思路: 1、准备数据集 Iris植物分类数据集(scikit-learn库里内置的该数据集,可直接导入) 四个特征:sepal length、sepal width、petal length、petal width 三种类别:Iris Setosa、Iris Versicolour、Iris Virginica 这里分类的目的是根据植物的特征推测它的种类 来源: https://www.cnblogs.com/wcy-going/p/11638061.html

AI学习--机器学习概述

回眸只為那壹抹淺笑 提交于 2019-11-29 19:06:02
学习框架 01-人工智能概述 机器学习、人工智能与深度学习的关系 达特茅斯会议-人工智能的起点 机器学习是人工智能的一个实现途径 深度学习是机器学习的一个方法发展而来(人工神经网络) 从图上可以看出,人工智能最开始是用于实现人机对弈,到后面的开始处理垃圾邮件过滤【机器学习,机器去模仿人工神经网络】,到最后的图片识别效果显著【深度神经网络,在图像识别中取得好的成绩】,也就是人工智能发展的3个历程。 机器学习、深度学习的应用 传统预测: 店铺销量预测,移动用户流量消费预测, 图像识别: 人脸识别、无人驾驶 自然语言处理: 英文翻译、文本分类、感情分析、只能客服 02-机器学习 什么是机器学习 机器学习 就是从 数据中自动分析获得模型 ,并利用模型对未知的数据 进行预测 大量的数量 –》 发布预测模型 --》 结果预测 例如,我们将大量的猫图片,利用Py转换为二进制的文件,然后交给机器去学习,去发现一定的规律后,下次机器就可以在大量的图片中发现包含猫的图片。 数据集的构成: 特征值 + 目前值 说明:有些数据我们没有目标值,但是也是可以根据他们的特征进行归类(有专门的算法) 03-机器学习算法分类 根据我们机器学习的结果有无目标值分为 监督学习 和 无监督学习 。 监督学习 根据输入的数据特征分为 分类学习 和 回归学习 监督学习: 目标值:类别 - 分类问题(猫狗的识别) k-近邻算法

02获取数据集并处理(iris)

蹲街弑〆低调 提交于 2019-11-29 15:18:43
获取数据-iris,划分训练集和测试集 from sklearn.datasets import load_iris # 1.获取数据集(iris) iris = load_iris() # print("iris数据集内容:", iris) # data,target,target_name print("训练数据集形状:", iris.data.shape) print("目标值形状:", iris.target.shape) print("目标值名称:", iris.target_names) # 2.数据集划分 from sklearn.model_selection import train_test_split # test_size,train_size,random_stat x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target,test_size=0.25) print("训练集x-y:", x_train.shape, y_train.shape) print("测试集x-y:", x_test.shape, y_test.shape) 运行结果: 训练数据集形状: (150, 4) 目标值形状: (150,) 目标值名称: ['setosa' 'versicolor

python调用scikit-learn机器学习

天涯浪子 提交于 2019-11-29 11:20:05
不支持深度学习和强化学习 numpy介绍: np.eye(n)生成一个n维单元数组 数据预处理: iris数据加载 from sklearn import datasets iris = datasets.load_iris() 数据展示 显示iris的信息 print(iris.data) [[5.1 3.5 1.4 0.2] [4.9 3. 1.4 0.2] [4.7 3.2 1.3 0.2] …… [5. 3.6 1.4 0.2] [5.4 3.9 1.7 0.4] [4.6 3.4 1.4 0.3]] 每列数据表示不同样本同一属性下对用的数值 print(iris.feature_names) ['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)'] 输出目标结果 print(iris.target) [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Knn算法实现

旧街凉风 提交于 2019-11-29 02:30:52
Knn算法实现 /*--> */ /*--> */ /*--> */ /*--> */ /*--> */ /*--> */ k近邻算法 ¶ 0.引入依赖 ¶ In [8]: import numpy as np import pandas as pd #这里直接引入sklearn里面的数据集,iris 鸢尾花 from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split # 切分数据集为训练集和测试集 from sklearn.metrics import accuracy_score #计算分类预测的准确率 1.数据加载和预处理 ¶ In [23]: iris = load_iris() df = pd.DataFrame(data=iris.data, columns = iris.feature_names) df['class'] = iris.target df['class'] = df['class'].map( lambda i:iris.target_names[i] ) df.describe() Out[23]: /*--> */ /*--> */ sepal length (cm) sepal width (cm) petal