cifar-10

【深度学习】Cifar-10-探究不同的改进策略对分类准确率提高

狂风中的少年 提交于 2020-02-05 10:11:11
cifar10数据集上进行图片分类,基于tensorflow框架, 旨在探究不同的改进策略对分类准确率的影响,如何一步步得提高准确率 一、问题描述 当我们在处理图像识别或者图像分类或者其他机器学习任务的时候,我们总是迷茫于做出哪些改进能够 提升模型的性能 (识别率、分类准确率)。。。或者说我们在漫长而苦恼的调参过程中 到底调的是哪些参数 。。。所以,我花了一部分时间在公开数据集CIFAR-10 [1] 上进行探索,来总结出一套方法能够 快速高效并且有目的性 地进行网络训练和参数调整。 CIFAR-10数据集有60000张图片,每张图片均为分辨率为32*32的彩色图片(分为RGB3个信道)。CIFAR-10的分类任务是将每张图片分成青蛙、卡车、飞机等10个类别中的一个类别。本文主要使用基于卷积神经网络的方法(CNN)来设计模型,完成分类任务。 首先,为了能够在训练网络的同时能够检测网络的性能,我对数据集进行了训练集/验证集/测试集的划分。训练集主要用户进行模型训练,验证集主要进行参数调整,测试集主要进行模型性能的评估。因此,我将60000个样本的数据集分成了,45000个样本作为训练集,5000个样本作为验证集,10000个样本作为测试集。接下来,我们一步步来分析,如果进行模型设计和改进。 二、搭建最简单版本的CNN 对于任何的机器学习问题,我们一上来肯定是采用最简单的模型

PointConv论文

半世苍凉 提交于 2020-01-13 22:14:33
转载请注明作者和出处: http://blog.csdn.net/john_bh/ 论文链接: PointConv: Deep Convolutional Networks on 3D Point Clouds 作者及团队:Zhengxia Zou & Zhenwei Shi & Yuhong Guo & Jieping Ye 会议及时间: CVPR 2019 code: github:https://github.com/DylanWusee/pointconv 文章目录 Abstract 1.Introduction 1.1. 作者为什么研究这个课题? 1.2. 目前这个课题的研究进行到了哪一阶段? 3. PointConv 3.1. Convolution on 3D Point Clouds 3.2. Feature Propagation Using Deconvolution 4. Efficient PointConv 5. Experiments 5.1. Classification on ModelNet40 5.2. ShapeNet Part Segmentation 5.3. Semantic Scene Labeling 5.4. Classification on CIFAR10 6. Ablation Experiments and

Keras实现CIFAR-10分类

大憨熊 提交于 2020-01-08 09:15:12
  仅仅为了学习Keras的使用,使用一个四层的全连接网络对MNIST数据集进行分类,网络模型各层结点数为:3072: : 1024 : 512:10;   使用50000张图片进行训练,10000张测试: precision recall f1-score support airplane 0.61 0.69 0.65 1000 automobile 0.69 0.67 0.68 1000 bird 0.43 0.49 0.45 1000 cat 0.40 0.32 0.36 1000 dear 0.49 0.50 0.50 1000 dog 0.45 0.48 0.47 1000 frog 0.58 0.65 0.61 1000 horse 0.63 0.60 0.62 1000 ship 0.72 0.66 0.69 1000 truck 0.63 0.58 0.60 1000 micro avg 0.56 0.56 0.56 10000 macro avg 0.56 0.56 0.56 10000 weighted avg 0.56 0.56 0.56 10000 训练过程中,损失和正确率曲线:   可以看到,训练集的损失在一直降低,而测试集的损失出现大范围波动,并趋于上升,说明在一些epoch之后,出现过拟合;   训练集的正确率也在一直上升,并接近100%

树卷积神经网络Tree-CNN: A Deep Convolutional Neural Network for Lifelong Learning

…衆ロ難τιáo~ 提交于 2019-12-06 09:46:39
树卷积神经网络Tree-CNN: A Deep Convolutional Neural Network for Lifelong Learning 2018-04-17 08:32:39 看_这是一群菜鸟 阅读数 1906 收藏 更多 分类专栏: 论文解读 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接: https://blog.csdn.net/qq_24305433/article/details/79856672 一、简介: 学习深度学习的人都知道,深度学习有一个严重的问题——“灾难性遗忘”,即一旦使用新的数据集去训练已有的模型,该模型将会失去对原数据集识别的能力。为解决这一问题,本文作者提出了树卷积神经网络 Tree-CNN ,通过先将物体分为几个大类,然后再将将各个大类依次进行划分,就行树一样不断的开枝散叶,最终叶节点得到的类别就是我们最终所要识别的类别。 二、网络结构及学习策略 1、网络结构 Tree-CNN模型借鉴了层分类器,树卷积神经网络由节点构成,和数据结构中的树一样,每个节点都有自己的ID、父亲(Parent)及孩子(Children),网(Net,处理图像的卷积神经网络),LT("Labels Transform"小编理解的就是每个节点所对应的标签,对于根节点和枝节点来说

痞子衡嵌入式:恩智浦机器视觉模块OpenMV-RT那些事(1)- 初体验

混江龙づ霸主 提交于 2019-12-06 06:29:19
  大家好,我是痞子衡,是正经搞技术的痞子。本系列痞子衡给大家介绍的是 机器视觉模块OpenMV-RT初体验 。   近些年机器视觉应用一直是个很火的方向,想象一下机器如果能长上“眼睛”,是不是就可以做一些人类才能做的事情,因此机器视觉是人工智能实现的一个重要基础。痞子衡当年硕士毕业论文课题就是工业相机图像处理相关的,算是机器视觉系统的前端核心。遥想十年以前,想要从事机器视觉系统的开发一直是比较复杂的,需要开发者有相当扎实的嵌入式开发基础,而现在一些机器视觉相关研究小组为了能让开发者把更多重心放在应用本身,推出了简洁易用的机器视觉模块,借助这些模块,即使没有太多嵌入式经验,也可以轻松玩机器视觉。今天痞子衡就带大家一起体验恩智浦推出的一款轻量级的机器视觉模块OpenMV-RT: 一、模块简介   今天痞子衡要讲的模块全称是OpenMV-RT,这是一款基于恩智浦最近主打的i.MXRT超高性能系列MCU的视觉模块。如下是模块简图,从简图里可以看出,这款板子设计得非常简洁,基本除了MCU最小系统之外,仅包含四大部件:640x480数字摄像头传感器、九轴姿态传感器、串行SPI Flash(存放代码)、SD卡槽(文件系统):   除此以外,模块还提供了标准OpenMV接口,可在OpenMV项目(关于OpenMV项目,痞子衡会在后续文章里细聊)生态里任意扩展其他功能模块: Note:

深度卷积生成式对抗网络(Deep Convolutional Generative Adversarial, DCGAN)

不打扰是莪最后的温柔 提交于 2019-12-05 09:32:36
深度卷积生成式对抗网络,2019-03-26 目录 一、预备知识 (一)卷积神经网络 1. 层级结构 2. 训练算法 3. 优缺点 (二)GAN 二、模型结构 (一)模型总体思想 (二)对CNN的改进 1. 全卷积网络 2. 消除完全连接层 3. 批规范化 (二)DCGAN框架结构 三、实验 (一)实验数据集 (二)实验细节 1. 预处理 2. 参数设置 3. 正式实验 (1) 在数据集LSUN上进行实验 (2)在人脸数据集上进行实验 (3)在数据集Imagenet-1K上进行实验 四、对DCGAN能力的实验验证 (一)使用GANs作为特征提取器对CIFAR-10进行分类 (二)使用GANs作为特征提取器对SVHN数字进行分类 五、研究和可视化网络的内部结构 (一)潜在空间 (二)可视化判别器特性 (三)操作生成器的表示 1. 忘记绘制某些对象 2. 人脸样本向量算法 六、总结和展望 论文链接:https://arxiv.org/abs/1511.06434 目录 一、预备知识 (一)卷积神经网络 参考博文: https://www.cnblogs.com/skyfsm/p/6790245.html 1. 层级结构 数据输入层/Input Layer:主要是数据预处理(去均值、归一化、 PCA / 白化 等); 卷积计算层/CONV Layer:局部关联、窗口滑动(特征提取);

DCGAN论文译本

二次信任 提交于 2019-12-05 08:29:13
用深度卷积生成对抗网络进行无监督表示学习 摘要 近年来,监督学习的卷积网络( CNN )在计算机视觉应用中有着广泛的应用。相比之下,无监督的卷积网络 CNN 学习受到的关注较少。在这项工作中,我们希望可以帮助缩小有监督学习的 CNN 和无监督学习的 CNN 成功之间的差距。我们介绍了一类 CNN 叫做深度卷积生成对抗网络( DCCNG ),它具有一定的架构约束,表明它们是非监督学习的有力候选。对各种图像数据集进行训练,我们展示出令人信服的证据,证明我们的深层卷积对抗从对象部分到发生器和判别器中的场景学习了层次结构的表示。此外,我们使用学习的功能进行新颖的任务 - 证明适用于一般图像的表示 1. 前言 从来自大型的未标记的数据集学习可重用的特征表示一直是一个热门的研究领域。在计算机视觉的背景下,可以利用实际上无限量的未标记的图像和视频来学习良好的中间表示,然后可以将它用在各种监督学习任务上,如图像分类。 我们提出了一种建立好的图像表示的方法是通过训练生成对抗网络( GAN )( Goodfellow 等人, 2014 ),并随后重用发生器和判别器网络的部分作为用于监督任务的特征提取器。 GAN 为最大似然技术提供了一个有吸引力的替代方法。另外还可以争辩说,他们的学习过程和缺少启发式的代价函数(比如像素方式的独立均方差)对于表示学习来说是存在吸引力的。我们知道 GAN

DCGAN 论文简单解读

為{幸葍}努か 提交于 2019-12-05 08:26:17
DCGAN 的全称是Deep Convolution Generative Adversarial Networks(深度卷积生成对抗网络)。是2014年Ian J.Goodfellow 的那篇开创性的 GAN论文 之后一个新的提出将GAN和卷积网络结合起来,以解决GAN训练不稳定的问题的一篇paper. 关于基本的GAN的原理,可以参考原始 paper ,或者其他一些有用的文章和代码,比如: GAN mnist 数据生成 , 深度卷积GAN之图像生成 , GAN tutorial 等。这里不再赘述。 一. DCGAN 论文简单解读 ABSTRACT 1.1 摘要 。作者说,这篇文章的初衷是,CNN在supervised learning 领域取得了非常了不起的成就(比如大规模的图片分类,目标检测等等),但是在unsupervised learning领域却没有特别大的进展。所以作者想弥补CNN在supervised 和 unsupervised之间的gap。作者提出了将CNN和GAN相结合的DCGAN,并展示了它在unsupervised learning所取得的不俗的成绩。作者通过在大量不同的image datasets上的训练,充分展示了DCGAN的generator(生成器)和discriminator(鉴别器)不论是在物体的组成部分(parts of object

TensorFlow入门:如何导入MNIST数据集和Cifar数据集

生来就可爱ヽ(ⅴ<●) 提交于 2019-12-05 08:17:03
源代码链接: http://pan.baidu.com/s/1hrDM9us MNIST官网链接: http://yann.lecun.com/exdb/mnist/ Cifar官网链接: http://www.cs.toronto.edu/~kriz/cifar.html 作者:XJTU_Ironboy 时间:2017年9月 开头语    TensorFlow 编程学习的入门一般都是基于 MNIST 手写数字数据集和 Cifar (包括 cifar-10 和 cifar-100 )数据集,因为它们都比较小,一般的设备即可进行训练和测试。而相比之下虽然基于 ImageNet 分类数据集的实验更具有意义,更加权威,但由于 ImageNet 数据集实在太大,不便于入门的童靴直接上手操作。所以接下来,我将只讲一下如何用 TensorFlow 导入 MNIST 和 Cifar 数据集。 一、MNIST 1.介绍    MNIST 是一个手写数字数据库,它有60000个训练样本集和10000个测试样本集。它是 NIST 数据库的一个子集。其中每张图片固定大小为 28 × 28 × 1 //--> (黑白图片,最后一个1指一个通道)。如下图所示: 2.TensorFlow导入   首先解释,由于图像是二维的,而实际计算机的存储空间是一维的,所以如果要查看MNIST库中的具体图片

关于CIFAR-10数据集的处理

社会主义新天地 提交于 2019-12-03 12:24:12
关于CIFAR-10数据集的处理 CIFAR-10和CIFAR-100是带有标签的数据集,出自于规模更大的一个数据集,他有八千万张小图片( http://groups.csail.mit.edu/vision/TinyImages/ 这个是一个大项目,你可以点击那个big map提交自己的标签,可以帮助他们训练让计算机识别物体的模型)。 在学习cs231n中接触到CIFAR-10数据集,对于图像类数据首次接触,特将处理过程记录如下 CIFAR-10 该数据集共有60000张彩色图像,这些图像是32*32的彩色照片,每个像素点包括RGB三个数值,数值范围0~255,分为10个类,分别是'airplane', 'automobile', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck',每类6000张图。这里面有50000张用于训练,构成了5个训练批,每一批10000张图;另外10000用于测试,单独构成一批。测试批的数据里,取自10类中的每一类,每一类随机取1000张。抽剩下的就随机排列组成了训练批。注意一个训练批中的各类图像并不一定数量相同,总的来看训练批,每一类都有5000张图。 下面这幅图就是列举了10各类,每一类展示了随机的10张图片: 数据的下载 (共有3个版本:python、matlab