mnist

使用keras对mnist数据集做分类

≯℡__Kan透↙ 提交于 2019-12-05 08:44:51
只贴代码: 原始数据集下载: http://yann.lecun.com/exdb/mnist/ 代码说明: http://keras.io/getting-started/sequential-model-guide/#examples """ @version: @author: vinsin @license: Apache Licence @software: PyCharm @file: test_keras.py @time: 16-7-19 下午4:53 """ def load_mnist(path, kind='train'): """Load MNIST data from `path`""" labels_path = os.path.join(path, '%s-labels-idx1-ubyte' % kind) images_path = os.path.join(path, '%s-images-idx3-ubyte' % kind) with open(labels_path, 'rb') as lbpath: magic, n = struct.unpack('>II', lbpath.read(8)) labels = np.fromfile(lbpath, dtype=np.uint8) with open(images_path, 'rb')

keras加载MNIST数据集方法

不打扰是莪最后的温柔 提交于 2019-12-05 08:44:31
由于公司网络限制,因此使用keras自带的MNIST数据集加载方法 (x_train, y_train),(x_test, y_test) = mnist.load_data() 是不可行的,所以只能另辟蹊径。 第一种方法: import gzip import keras from six.moves import cPickle from keras import backend as K img_rows, img_cols = 28, 28 def load_data(): path =r'/root/keras/keras/datasets/mnist.pkl.gz' ifpath.endswith('.gz'): f =gzip.open(path, 'rb') else: f =gzip.open(path, 'rb') f =gzip.open(path, 'rb') data =cPickle.load(f) f.close() return data print (len(load_data())) (x_train, y_train), (x_validation, y_validation),(x_test, y_test) = load_data() if K.image_data_format() == 'channels_first': x_train

深度学习之路:(一)Keras中mnist数据集测试

邮差的信 提交于 2019-12-05 08:44:11
Keras环境搭建 本地环境 MacOS 一、安装Anaconda 1、下载Anaconda最新版本: 官网下载地址 附: 清华镜像源 2、下载后直接安装,点击next 3、检测版本 打开终端 输入 conda --v , 如显示如下,则安装成功。 shiqingdeMacBook- Air :~ shiqingwang $ conda --v conda 4.4 . 9 二、安装Keras 1、打开Anaconda-Navigator 依次点击 Environments -> anaconda3 -> open Terminal # GPU 版本 pip install --upgrade tensorflow-gpu # CPU 版本 pip install --upgrade tensorflow # Keras 安装 pip install keras - U --pre 2、检测是否安装成功Keras 在已安装模块中搜索, keras ,若如下,则安装成功 三、Keras中mnist数据集测试 1、 下载Keras开发包 conda install git git clone https://github .com /fchollet/keras .git cd keras/examples/ python mnist_mlp .py 2、运行出错 出现网络连接错误

Tensorflow最佳实践样例程序(MNIST)

让人想犯罪 __ 提交于 2019-12-05 08:43:31
将原来在一个py文件里的程序进行重构。重构之后的代码将被拆成3个程序,第一个是mnist_inference.py,它定义了向前传播过程以及神经网络的参数。第二个是mnist_train.py,它定义了神经网络的训练过程。第三个是mnist_eval.py,它定义了测试过程。 mnist_inference.py #总结 # 在这段代码中设定了神经网络的前向传播算法。无论是训练时还是测试时, # 都可以直接调用inference这个函数,而不用关心具体的神经网络结构 import tensorflow as tf #定义神经网络结构相关的参数 INPUT_NODE = 784 OUTPUT_NODE = 10 LAYER1_NODE = 500 #通过tf.get_variable函数来获取变量。在训练神经网络时会创建这些变量; # 在测试时会通过保存的模型加载这些变量的取值。而且更加方便的是,因为 # 可以在加载变量时将滑动平均变量重命名,所以可以直接通过同样的名字在 # 训练时使用变量自身,而在测试时使用变量的滑动平均值。在这个函数中也 # 会将变量的正则化损失加入损失集 def get_weight_variable(shape, regularrizer): weights = tf.get_variable( "weights", shape, initializer

TensorFlow实战——MNIST最佳实践样例程序

℡╲_俬逩灬. 提交于 2019-12-05 08:42:25
TensorFlow实战——MNIST最佳实践样例程序 在全连接神经网络学习完之后,将提供重构之后的程序来解决MNIST问题。重构之后的代码将会被拆成3个程序,第一个是mnist_inference.py,它定义了前向传播的过程以及神经网络中的参数。第二个是mnist_train.py,它定义了神经网络的训练过程。第三个是mnist_eval.py,它定义了测试过程。 mnist_inference.py # -*- coding: utf-8 -*- import tensorflow as tf INPUT_NODE = 784 OUTPUT_NODE = 10 LAYER1_NODE = 500 def get_weight_variable (shape, regularizer) : weights = tf.get_variable( "weights" , shape, initializer=tf.truncated_normal_initializer(stddev= 0.1 )) if regularizer != None : tf.add_to_collection( 'losses' , regularizer(weights)) return weights def inference (input_tensor, regularizer) : with

绕开bug的feed_dict,用自己的数据集训练DCGAN

风格不统一 提交于 2019-12-05 08:37:01
这篇代码与上两篇博客紧密相连,在上篇博客的注意部分提到,feed_dict需要喂numpy.array这种数据,但是我自己用的方法生成队列batch的数据类型为 tensor ,那么就没法喂到 feed_dict 里面了,所以查了各种Stack Overflow后发现,绕开 feed_dict 的形式,去掉 placeholder 在图创建的时候,直接输入数据,就可以了。具体细节见下面代码。 为了博文的完整性,仍然本博客贴出完整代码。其共分成两部分:第一部分为generator和discriminator的 model.py 以及训练(无 feeed_dict )的 train.py 两部分。 有心的同学请仔细学习 train.py 文件,会发现跟之前博客(含有 feed_dict )有所不同的。 顺便说一句,tf在训练的时候可以接受array和tensor这两种数据结构,之间会相互转化(猜测是由于自带的convolution之类的函数进行了转化)。因为仔细去看MNIST的数据集是array的形式。 model.py # -*- coding: utf-8 -*- """ Created on Tue Jul 24 20:33:14 2018 E-mail: Eric2014_Lv@sjtu.edu.cn @author: DidiLv """ import tensorflow

dcgan

不想你离开。 提交于 2019-12-05 08:36:06
来源: https://github.com/aymericdamien/TensorFlow-Examples#tutorials """ Deep Convolutional Generative Adversarial Network (DCGAN). Using deep convolutional generative adversarial networks (DCGAN) to generate digit images from a noise distribution. References: - Unsupervised representation learning with deep convolutional generative adversarial networks. A Radford, L Metz, S Chintala. arXiv:1511.06434. Links: - [DCGAN Paper](https://arxiv.org/abs/1511.06434). - [MNIST Dataset](http://yann.lecun.com/exdb/mnist/). Author: Aymeric Damien Project: https://github.com/aymericdamien/TensorFlow-Examples

DCGAN数据集:mnist、CelebA、lsun

走远了吗. 提交于 2019-12-05 08:34:35
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_34638161/article/details/81135377 carpedm20/DCGAN-tensorflow : https://github.com/carpedm20/DCGAN-tensorflow mnist数据集: http://yann.lecun.com/exdb/mnist/ CelebA数据集: https://blog.csdn.net/Cloudox_/article/details/78432517?locationNum=4&fps=1 :博客 http://mmlab.ie.cuhk.edu.hk/projects/CelebA.html :香港中文大学 lsun数据集: http://lsun.cs.princeton.edu/2017/ :lsun官网 http://www.yf.io/ https://github.com/fyu/lsun/blob/master/download.py :下载数据集 --------------------- 作者:tiankong_hut 来源:CSDN 原文:https://blog.csdn.net/qq_34638161/article/details/81135377?utm_source

学习笔记:GAN和DCGAN入门

本小妞迷上赌 提交于 2019-12-05 08:23:27
GAN的全称为Generative Adversarial Networks,意为对抗生成网络。原始的GAN是一种无监督学习方法,它巧妙地利用“对抗”的思想来学习生成式模型,一旦训练完成后可以生成全新的数据样本。DCGAN将GAN的概念扩展到卷积神经网络中,可以生成质量较高的图片样本。GAN和DCGAN在各个领域都有广泛的应用,这篇文章首先会介绍他们的原理,再介绍如何在TensorFlow中使用DCGAN生成图像,关于GAN和DCGAN的更多项目会在接下来的章节中进行介绍。 GAN的原理 GAN的原理其实非常简单。可以把GAN看成数据生成工具,这里以生成图片数据为例进行讲解,实际GAN可以应用到任何类型的数据。 假设有两个网络,生成网络G(Generator)和判别网络D(Discriminator) 他们的功能分别是: G负责生成图片,它接收一个随机的噪声 z z //--> ,通过该噪声生成图片,将生成的图片记为 G ( z ) G ( z ) //--> 。 D负责判别一张图片是不是“真实的”。它的输入时 x x //--> , x x //--> 代表一张图片,输出 D ( x ) D ( x ) //--> 表示 x x //--> 为真实图片的概率,如果为,代表真实图片的概率为%,而输出为,代表不可能是真实的图片。 在训练过程中