mnist

tensorflow的MNIST教程

我的梦境 提交于 2019-12-01 07:13:55
(ps:根据自己的理解,提炼了一下官方文档的内容,错误的地方希望大佬们多多指正。。。。。) 0x01:数据集的获取和表示 数据集的获取,可以通过代码自动下载。这里的数据就是各种手写数字图片和图片对应的标签(告诉我们这个数字是几,比如下面的是5,0,4,1)。 下载下来的数据集被分成两部分:60000行的训练数据集( mnist.train )和10000行的测试数据集( mnist.test ),而每一个数据集都有两部分组成:一张包含手写数字的 图片(xs) 和一个对应的 标签(ys) 。训练数据集和测试数据集都包含xs和ys,比如训练数据集的图片是 mnist.train.images ,训练数据集的标签是 mnist.train.labels 。根据图片像素点把图片展开为向量,再进一步操作,识别图片上的数值。那这60000个训练数据集是怎么表示的呢?在MNIST训练数据集中, mnist.train.images 是一个形状为 [60000, 784] 的张量(至于什么是张量,小伙伴们可以手都搜一下,加深一下印象),第一个维度数字用来索引图片,第二个维度数字用来索引每张图片中的像素点。在此张量里的每一个元素,都表示某张图片里的某个像素的强度值,值介于0和1之间。 0x02:代码运行 代码分为两部分,一个是用于下载数据的 input_data.py , 另一个是主程序 mnist

Why my ConvLSTM model can not predict?

南笙酒味 提交于 2019-12-01 02:04:12
I have built a Convolutional LSTM model using Tensorflow ConvLSTMCell(), tf.nn.dynamic_rnn(), and tf.contrib.legacy_seq2seq.rnn_decoder(). I have 3 layers of encoder, and 3 layers of decoder, the initial states of decoders come from the final states of encoders. I have 128, 64, and 64 filters for layer 1, layer 2, and layer 3 respectively. finally, I concatenate the outputs of decoders and pass them through a convolution layer to decrease the number of channels to one. and then I apply the loss function. My dataset is Moving mnist dataset. in Moving mnist dataset each sequence has 20 frames,

下载并使用MNIST数据集

[亡魂溺海] 提交于 2019-12-01 01:55:15
TensorFlow提供了一个库,可以直接用来自动下载与安装MNIST。 MNIST里包含3个数据集:第一个是训练数据集(mnist.train.images),另外两个分别是测试数据集(mnist.test.images)和验证数据集(mnist.validation)。 代码中的one_hot=True,表示将样本标签转化为one_hot编码。 刚开始的打印信息是解压数据集的意思。如果是第一次运行,还会显示下载数据的相关消息。 接着打印出来的是训练集的图片信息,是一个55000行、784列的矩阵。即,训练集里有55000张图片。 1 from tensorflow.examples.tutorials.mnist import input_data 2 mnist = input_data.read_data_sets("MNIST_data/",one_hot=True) 3 print ('输入数据:',mnist.train.images) 4 print ('输入打印shape:',mnist.train.images.shape) 5 import pylab 6 im = mnist.train.images[1] 7 im = im.reshape(-1,28) 8 pylab.imshow(im) 9 pylab.show() 代码的输出结果如图: 来源:

11.tensorboard网络结构

耗尽温柔 提交于 2019-11-30 17:02:59
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data # 载入数据集 mnist = input_data.read_data_sets("MNIST_data", one_hot=True) # 批次大小 batch_size = 64 # 计算一个周期一共有多少个批次 n_batch = mnist.train.num_examples // batch_size with tf.name_scope('input'): # 定义两个placeholder x = tf.placeholder(tf.float32,[None,784], name='x-input') y = tf.placeholder(tf.float32,[None,10], name='y-input') with tf.name_scope('layer'): # 创建一个简单的神经网络:784-10 with tf.name_scope('weights'): W = tf.Variable(tf.truncated_normal([784,10], stddev=0.1)) with tf.name_scope('biases'): b = tf.Variable(tf.zeros(

10.优化器

╄→гoц情女王★ 提交于 2019-11-30 17:01:27
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #载入数据集 mnist = input_data.read_data_sets("MNIST_data",one_hot=True) #每个批次的大小 batch_size = 64 #计算一共有多少个批次 n_batch = mnist.train.num_examples // batch_size #定义两个placeholder x = tf.placeholder(tf.float32,[None,784]) y = tf.placeholder(tf.float32,[None,10]) #创建一个简单的神经网络 W = tf.Variable(tf.zeros([784,10])) b = tf.Variable(tf.zeros([10])) prediction = tf.nn.softmax(tf.matmul(x,W)+b) #交叉熵代价函数 # loss = tf.losses.softmax_cross_entropy(y,prediction) loss = tf.losses.mean_squared_error(y,prediction) #使用梯度下降法 # train_step =

8.Dropout

孤街浪徒 提交于 2019-11-30 17:00:31
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #载入数据集 mnist = input_data.read_data_sets("MNIST_data",one_hot=True) #每个批次的大小 batch_size = 64 #计算一共有多少个批次 n_batch = mnist.train.num_examples // batch_size #定义三个placeholder x = tf.placeholder(tf.float32,[None,784]) y = tf.placeholder(tf.float32,[None,10]) keep_prob=tf.placeholder(tf.float32) # 784-1000-500-10 W1 = tf.Variable(tf.truncated_normal([784,1000],stddev=0.1)) b1 = tf.Variable(tf.zeros([1000])+0.1) L1 = tf.nn.tanh(tf.matmul(x,W1)+b1) L1_drop = tf.nn.dropout(L1,keep_prob) W2 = tf.Variable(tf.truncated

深度学习论文翻译解析(五):Siamese Neural Networks for One-shot Image Recognition

半世苍凉 提交于 2019-11-30 16:32:43
论文标题:Siamese Neural Networks for One-shot Image Recognition 论文作者: Gregory Koch Richard Zemel Ruslan Salakhutdinov 论文地址: https://www.cs.cmu.edu/~rsalakhu/papers/oneshot1.pdf 声明:小编翻译论文仅为学习,如有侵权请联系小编删除博文,谢谢! 小编是一个机器学习初学者,打算认真研究论文,但是英文水平有限,所以论文翻译中用到了Google,并自己逐句检查过,但还是会有显得晦涩的地方,如有语法/专业名词翻译错误,还请见谅,并欢迎及时指出。 摘要   为机器学习应用程序学习一个好的特征的过程可能在计算上非常昂贵,并且在数据很少的情况下可能会变得困难。一个典型的例子就是一次学习设置,在这种情况下,我们必须仅给出每个新类的一个示例,就可以正确的做出预测。在本文中,我们探索了一种学习孪生神经网络的方法,该方法采用独特的结构自然对输入之间的相似性进行排名。一旦网络被调整好,我们就可以利用强大的判别功能,将网络的预测能力不仅用于新数据,而且适用于未知分布中的全新类别。使用卷积架构,我们可以在单次分类任务上获得近乎最先进的性能,从而超过其他深度学习模型的强大结果。   人类展现出强大的获取和识别新模式的能力。特别是,我们观察到

deep_learning_MNIST数据集

ぐ巨炮叔叔 提交于 2019-11-30 16:02:59
Code_link: https://pan.baidu.com/s/1dshQt57196fhh67F8nqWow 本文是为既没有机器学习基础也没了解过TensorFlow的码农、序媛们准备的。如果已经了解什么是MNIST和softmax回归本文也可以再次帮助你提升理解。在阅读之前,请先确保在合适的环境中安装了TensorFlow( windows安装请点这里 ,其他版本请官网找),适当编写文章中提到的例子能提升理解。 首先我们需要了解什么是“ MNIST ”? 每当我们学习一门新的语言时,所有的入门教程官方都会提供一个典型的例子——“Hello World”。而在机器学习中,入门的例子称之为MNIST。 MNIST是一个简单的视觉计算数据集,它是像下面这样手写的数字图片: 每张图片还额外有一个标签记录了图片上数字是几,例如上面几张图的标签就是:5、0、4、1。 本文将会展现如何训练一个模型来识别这些图片,最终实现模型对图片上的数字进行预测。 首先要明确,我们的目标并不是要训练一个能在实际应用中使用的模型,而是通过这个过程了解如何使用TensorFlow完成整个机器学习的过程。我们会从一个非常简单的模型开始——Softmax回归。 然后要明白,例子对应的源代码非常简单,所有值得关注的信息仅仅在三行代码中。然而,这对于理解TensorFlow如何工作以及机器学习的核心概念非常重要

TypeError: only integer scalar arrays can be converted to a scalar index

 ̄綄美尐妖づ 提交于 2019-11-30 06:45:35
I am trying a simple demo code of tensorflow from github link . I'm currently using python version 3.5.2 Z:\downloads\tensorflow_demo-master\tensorflow_demo-master>py Python 3.5.2 (v3.5.2:4def2a2901a5, Jun 25 2016, 22:18:55) [MSC v.1900 64 bit (AMD64)] on win32<br> Type "help", "copyright", "credits" or "license" for more information. I ran into this error when I tried board.py in command-line. I have installed all the dependencies that are required for this to run. def _read32(bytestream): dt = numpy.dtype(numpy.uint32).newbyteorder('>') return numpy.frombuffer(bytestream.read(4), dtype=dt)

MINIST手写数字识别

对着背影说爱祢 提交于 2019-11-30 05:54:05
1、配置环境:tensorflow+matplotlib 添加matplotlib库: https://blog.csdn.net/jiaoyangwm/article/details/79252845 2、下载数据: http://yann.lecun.com/exdb/mnist/ 3、主要步骤:   1)载入数据,解析文件   2)构建CNN网络   3)构建loss function   4)配置寻优器     梯度下降法、动量优化器、Adam优化器、Adagrad优化器、FTRL优化器、RMSProp优化器、   5)训练、测试   6)tensorboard可视化 4、详细解释 http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_beginners.html 5、具体实现 来源: https://www.cnblogs.com/chengmm/p/11565058.html