mnist

TensorFlow入门:如何导入MNIST数据集和Cifar数据集

生来就可爱ヽ(ⅴ<●) 提交于 2019-12-05 08:17:03
源代码链接: http://pan.baidu.com/s/1hrDM9us MNIST官网链接: http://yann.lecun.com/exdb/mnist/ Cifar官网链接: http://www.cs.toronto.edu/~kriz/cifar.html 作者:XJTU_Ironboy 时间:2017年9月 开头语    TensorFlow 编程学习的入门一般都是基于 MNIST 手写数字数据集和 Cifar (包括 cifar-10 和 cifar-100 )数据集,因为它们都比较小,一般的设备即可进行训练和测试。而相比之下虽然基于 ImageNet 分类数据集的实验更具有意义,更加权威,但由于 ImageNet 数据集实在太大,不便于入门的童靴直接上手操作。所以接下来,我将只讲一下如何用 TensorFlow 导入 MNIST 和 Cifar 数据集。 一、MNIST 1.介绍    MNIST 是一个手写数字数据库,它有60000个训练样本集和10000个测试样本集。它是 NIST 数据库的一个子集。其中每张图片固定大小为 28 × 28 × 1 //--> (黑白图片,最后一个1指一个通道)。如下图所示: 2.TensorFlow导入   首先解释,由于图像是二维的,而实际计算机的存储空间是一维的,所以如果要查看MNIST库中的具体图片

tensorflow中导入下载到本地的mnist数据集

为君一笑 提交于 2019-12-05 08:16:52
mnist数据集获取:可从 Yann LeCun教授管网 获取; tensorflow中可使用 input_data.read_data_sets("/worker/mnistdata/", one_hot = True) 导入下载到本地的mnist数据集; "/worker/mnistdata/"为数据集存放的位置. import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #tensorflow已经包含了mnist案例的数据 mnist = input_data.read_data_sets("/worker/mnistdata/", one_hot = True) #导入已经下载好的数据集,"/worker/mnistdata/"为存放mnist数据集的文件夹 print(mnist.train.images.shape, mnist.train.labels.shape) print(mnist.test.images.shape, mnist.test.labels.shape) print(mnist.validation.images.shape, mnist.validation.labels.shape) Extracting /worker

Tensorflow如何正确导入mnist手写数据集

情到浓时终转凉″ 提交于 2019-12-05 08:16:36
程序代码: import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data import numpy as np mnist = input_data.read_data_sets('mnist_data/', one_hot=True) 注:在服务器上利用mnist手写数据集进行Tensorflow学习时,发现大部分网上代码会各种报错, 故总结了一种简单少入坑的方法。 (1)先下载好mnist数据集 (2)再用以上代码,进行本地导入即可。 来源: CSDN 作者: 来自射手座的猪 链接: https://blog.csdn.net/qq_36812424/article/details/97898668

如何导入MNIST数据集

时间秒杀一切 提交于 2019-12-05 08:16:27
问题 当我使用github上别人的代码: import tensorflow as tf from tensorflow . examples . tutorials . mnist import input_data from tensorflow . examples . tutorials . mnist import input_data mnist = input_data . read_data_sets ( "/tmp/data/" , one_hot = True ) 结果会报错,原因就是read_data_sets这个函数会检查“/tmp/data/”这个目录下是否有其所需的四个文件,显然我们第一次运行的时候没有,它就会去它所写的地址去下载,但是国内可能因为某些问题就会出现网络错误。 解决办法 解决办法很简单,我们可以去 lecnn大佬 的主页将这四个文件下载下来,如闻如图所示: 我们将去下完之后放在某个文件下(不用解压,直接将四个压缩包放在那个文件下),之后将read_data_sets函数的路径改成刚才放文件的路径就可以了。 然后read_data_sets函数发现这个文件夹有这四个文件就不会去下载,结果就正常了: import tensorflow as tf from tensorflow . examples . tutorials . mnist

本地导入Mnist的数据集的方法

三世轮回 提交于 2019-12-05 08:15:44
完整代码的下载路径: https://download.csdn.net/download/lxiao428/11029921 很多人在介绍Mnist数据集的时候都是通过库在网上下载,我以前也是这么做的,但是今天发现远程服务器关闭连接了,而我本地又有这个Mnist数据集,我就想怎么讲训练数据和测试数据导入到我的代码训练中,网上找了好久都没有办法,so,搜肠刮肚找到的这个办法。 #加载Mnist数据集 from keras.datasets import mnist import gzip import os import numpy local_file = "F:\python\DeepLearning" #(train_images, train_labels),(test_images, test_labels) = mnist.load_data() TRAIN_IMAGES = 'train-images-idx3-ubyte.gz' #训练集图像的文件名 TRAIN_LABELS = 'train-labels-idx1-ubyte.gz' #训练集label的文件名 TEST_IMAGES = 't10k-images-idx3-ubyte.gz' #测试集图像的文件名 TEST_LABELS = 't10k-labels-idx1-ubyte.gz'

DCGAN例子学习-MNIST 手写体数字生成

≡放荡痞女 提交于 2019-12-05 08:03:06
参考代码: https://github.com/FacelessManipulator/keras-dcgan/blob/master/dcgan.py 参考文章: https://www.leiphone.com/news/201703/Y5vnDSV9uIJIQzQm.html 生成对抗网络(Generative Adversarial Networks,GAN)最早由 Ian Goodfellow 在 2014 年提出,是目前深度学习领域最具潜力的研究成果之一。它的核心思想是:同时训练两个相互协作、同时又相互竞争的深度神经网络(一个称为生成器 Generator,另一个称为判别器 Discriminator)来处理无监督学习的相关问题。在训练过程中,两个网络最终都要学习如何处理任务。 通常,我们会用下面这个例子来说明 GAN 的原理:将警察视为判别器,制造假币的犯罪分子视为生成器。一开始,犯罪分子会首先向警察展示一张假币。警察识别出该假币,并向犯罪分子反馈哪些地方是假的。接着,根据警察的反馈,犯罪分子改进工艺,制作一张更逼真的假币给警方检查。这时警方再反馈,犯罪分子再改进工艺。不断重复这一过程,直到警察识别不出真假,那么模型就训练成功了。 一、源码分析: (1) 生成器generator_model def generator_model(): model =

win10+only-cpu利用Caffe框架测试mnist数据集

女生的网名这么多〃 提交于 2019-12-05 07:57:31
一、 下载 mnist 数据集,正常步骤:在如下网站下载四个 zip : http://yann.lecun.com/exdb/mnist/ 但是从这里下载的数据集需要进行格式转换(转换方法以后会说到的),所以我现在选择下载现成的数据集如此 zip 文件 解压后得到这么两个文件夹: ( 附 :这了两个文件夹中的内容: ) 将这两个文件夹放入 D:/caffe-master/examples/mnist 中(因为我把caffe-master解压在了D盘根目录下,大家自己寻找自己的caffe-master就可以了), 效果如图 二、 修改相关文件 ① 在 D:\caffe-master\examples\mnist 中,用 VS2013 打开 lenet_solver..protptxt 文件,如图: ,拉到最后一行做如下修改: ,该页面包括了最大迭代次数, max_iter ,以及输出中间结果 snapshot ,如图所示: ② 在 D:\caffe-master\examples\mnist 中,用 VS2013 打开 lenet_train_test.prototxt 文件,如图: ,进行如图所示修改,两个 source ,定位到数据集文件夹名字。 三、返回 caffe-master 所在目录中,新建一个 txt 文件,输入如下代码,效果如图 Build\x64\Debug

tensorflow 8. MNIST的脚手架--input_data

只谈情不闲聊 提交于 2019-12-05 07:56:43
在之前的案例中经常见到这样使用MNIST数据集的用法: from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets( "/tmp/data/" , one_hot= False ) 这句话的作用是,如果”/tmp/data/”目录下存在mnist数据集,则加载,否则先下载后加载。 input_data的源码在tensorflow的相应目录下,其内容为: """Functions for downloading and reading MNIST data.""" from __future__ import absolute_import from __future__ import division from __future__ import print_function # pylint: disable=unused-import import gzip import os import tempfile import numpy from six.moves import urllib from six.moves import xrange # pylint: disable=redefined-builtin import tensorflow

TensorFlow学习--MNIST入门与提高 (附脚本input_data.py)

£可爱£侵袭症+ 提交于 2019-12-05 07:56:29
建立softmax回归模型: y = s o f t m a x ( W x + b ) y = s o f t m a x ( W x + b ) //--> 损失函数采用交叉熵来衡量: C o s t E n t r o p y = − ∑ y ′ l o g y C o s t E n t r o p y = − ∑ y ′ l o g y //--> 其中 y ′ y ′ //--> 代表真实值.由于真实值的类别通常采用one-hot编码,即对应类别位置为1其他为0,因此损失函数就可以写成: C o s t E n t r o p y = − y ′ l o g y C o s t E n t r o p y = − y ′ l o g y //--> 即: cross_entropy = -tf.reduce_sum( y _ *tf . log ( y )) 训练数据时每次随机抓取100个批处理数据点进行训练. MNIST入门 代码&注释: #!/usr/bin/python # coding:utf-8 import tensorflow as tf import input_data # 加载数据 mnist = input_data.read_data_sets( 'Mnist_data' , one_hot=True) # x不是一个特定的值,而是一个占位符 #

TensorFlow笔记之MNIST例程详解

廉价感情. 提交于 2019-12-05 07:55:53
MNIST被称为这方面的HelloWorld,此程序修改自 github 程序如下 # -*- coding:utf-8 -*- from tensorflow.examples.tutorials.mnist import input_data import tensorflow as tf dir= '/home/kaka/Documents/input_data' # 1.Import data mnist = input_data.read_data_sets(dir, one_hot= True ) #Print the shape of mist print (mnist.train.images.shape,mnist.train.labels.shape) print(mnist.test.images.shape, mnist.train.labels.shape) print(mnist.validation.images.shape, mnist.validation.labels.shape) # 2.Create the model # y=wx+b x = tf.placeholder(tf.float32, [ None , 784 ]) W = tf.Variable(tf.zeros([ 784 , 10 ])) b = tf.Variable