mnist

pytorch实现MNIST手写体识别(全连接神经网络)

感情迁移 提交于 2019-11-27 08:40:36
环境: pytorch1.1  cuda9.0  ubuntu16.04 该网络有3层,第一层input layer,有784个神经元(MNIST数据集是28*28的单通道图片,故有784个神经元)。第二层为hidden_layer,设置为500个神经元。最后一层是输出层,有10个神经元(10分类任务)。在第二层之后还有个ReLU函数,进行非线性变换。 #!/usr/bin/env python # encoding: utf-8 ''' @author: liualex @contact: liualex1109@163.com @software: pycharm @file: main.py @time: 2019/8/14 21:20 @desc: ''' import torch import torchvision import torchvision.transforms as transforms import torch.utils.data.dataloader as dataloader import torch.nn as nn import torch.optim as optim import os os.environ["CUDA_VISIBLE_DEVICES"] = "3" train_set = torchvision.datasets

mnist

会有一股神秘感。 提交于 2019-11-27 05:42:57
import tensorflow as tf matrix1 = tf.constant([[3., 3.]]) # 创建另外一个常量 op, 产生一个 2x1 矩阵. matrix2 = tf.constant([[2.],[2.]]) product = tf.matmul(matrix1, matrix2) sess = tf.Session() finalproduct = sess.run(product) print(matrix1) print(matrix2) print(product) print(finalproduct) #变量 Variable import tensorflow as tf #创建变量 初始化为0 state = tf.Variable(0,name="counter") #创建一个op(常量) one = tf.constant(1) #使得state plues 1 later avoid use Chinese reuslt too many problems new_value = tf.add(state,one) update = tf.assign(state,new_value)#swap state and new_value #变量需要经过初始化 init_op = tf.initialize_all

tencent_2.4_deep_neural_networks

佐手、 提交于 2019-11-27 03:43:34
课程地址: https://cloud.tencent.com/developer/labs/lab/10313/console 首先我们需要先下载 MNIST 的数据集。使用以下的命令进行下载: wget https://devlab-1251520893.cos.ap-guangzhou.myqcloud.com/t10k-images-idx3-ubyte.gz wget https://devlab-1251520893.cos.ap-guangzhou.myqcloud.com/t10k-labels-idx1-ubyte.gz wget https://devlab-1251520893.cos.ap-guangzhou.myqcloud.com/train-images-idx3-ubyte.gz wget https://devlab-1251520893.cos.ap-guangzhou.myqcloud.com/train-labels-idx1-ubyte.gz   # multi-layer############################################ layer_dims = [784, 500, 500, 10] layer_count = len(layer_dims)-1 layer_iter = X for l in

(转)mnist.load_data()出现错误

巧了我就是萌 提交于 2019-11-27 00:22:16
解决方法:本地导入 1.下载mnist.npz文件 mnist.npz链接 imdb.npz链接 2.将上述文件放于合适位置,我放在了.\python35\Lib\site-packages\keras\datasets中 3.在.\python35\Lib\site-packages\keras\datasets中找到mnist.py,用notepad++打开如下 将path改成minist.npz的路径即可 --------------------- 版权声明:本文为CSDN博主「DaBinGoGoGo」的原创文章,遵循CC 4.0 by-sa版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/angel_hben/article/details/85235745 来源: https://www.cnblogs.com/wangle1001986/p/11336471.html

mnist 卷积神经网络

泄露秘密 提交于 2019-11-26 23:57:21
# from keras.models import Sequential# from keras.layers.core import Dense,Activation,Flatten#creating the Sequential model# model=Sequential()# #layer 1 --adding a flatten layer# model.add(Flatten(input_shape=(32,32,3)))# #layer 2 --adding a fully connected layer# model.add(Dense(100))# #layer 3 --add a Relu activation layer# model.add(Activation("relu"))# #layer 4 --adding a fully connected layer# model.add(Dense(60))# #layer 5 --adding a Relu activation layer# model.add(Activation("relu"))import numpy as npimport matplotlib.pyplot as pltfrom keras.datasets import mnistfrom keras.models

Tensorf实战第九课(自编码AutoEncoder)

寵の児 提交于 2019-11-26 17:02:35
本节我们将了解神经网络进行非监督形式的学习,即autoencoder自编码 假设图片经过神经网络后再输出的过程,我们看作是图片先被压缩然后解压的过程。那么在压缩的时候,原有的图片质量被缩减,解压时用信息量小却包含所有关键信息的文件恢复出原本的图片。 为什么要这么做呢? 因为当神经网络接收大量信息时,神经网络在成千上万个信息源中学习是一件比较吃力的事。所以进行压缩,从原图片中提取最具代表性的信息,减小输入信息量,再把缩减过后的信息放进神经网络学习,这样学习起来简单轻松许多。 如下图所示,将原数据白色的X压缩,解压还原成黑色的X,求出预测误差,进行反向传递,逐步提升自编码的准确性。训练好的自编码中间一部分就是能够总结原数据的精髓。可以看出,从头到尾,我么值用到看输入数据X,并没有用到X对应的数据标签,所以可以说自编码是一种非 监督学习 。到了真正使用自编码的时候,通常只会用到自编码的前半部分。 如下图,这部分也叫作encoder编码器,编码器能得到元数据的精髓我们只需要创建一个小的神经网络学习这个精髓的数据,不仅能减少神经网络的负担,同样能达到很好的效果。 至于Decoder解码器,解压器在训练的时候是要将精髓信息解压成原始信息,那么这就提供了一个解压器的作用,甚至我们可以认为是一个生成器。做这件事的一种特殊编码叫做variational autoencoders

基于MNIST的手写数字识别

 ̄綄美尐妖づ 提交于 2019-11-26 14:56:17
1 mnist 数据数据集获取 方式一:使用 tf.contrib,.learn 模块加载 mnist 数据集(弃用),如下 #使用 tf.contrib.learn 模块加载 MNIST 数据集(Deprecated 弃用) import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets('./mnist/dataset/') 这种方法官方已经遗弃了 运行之后会出现 Warning 提示,该方式已经不推荐使用。 方式二:使用 keras.dataset 模块加载 mnist 数据集,如下: from keras.datasets import mnist (x_train, y_train), (x_test,y_test) = mnist.load_data('mnist/mnist.npz') ##这里是相对路径,其实绝对路径在这里哦 C:\Users\korey\.keras\datasets\mnist\mnist.npz 这种方式要比第一种简单很多,但是要注意这里的 Path 是个相对路径。 训练集:60000;测试集:10000; 可视化数据集(15 个) 点击此处下载文档和源码 来源: https:

基于MNIST的手写数字识别

半城伤御伤魂 提交于 2019-11-26 14:56:16
1 mnist 数据数据集获取 方式一:使用 tf.contrib,.learn 模块加载 mnist 数据集(弃用),如下 #使用 tf.contrib.learn 模块加载 MNIST 数据集(Deprecated 弃用) import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets('./mnist/dataset/') 这种方法官方已经遗弃了 运行之后会出现 Warning 提示,该方式已经不推荐使用。 方式二:使用 keras.dataset 模块加载 mnist 数据集,如下: from keras.datasets import mnist (x_train, y_train), (x_test,y_test) = mnist.load_data('mnist/mnist.npz') ##这里是相对路径,其实绝对路径在这里哦 C:\Users\korey\.keras\datasets\mnist\mnist.npz 这种方式要比第一种简单很多,但是要注意这里的 Path 是个相对路径。 训练集:60000;测试集:10000; 可视化数据集(15 个) 点击此处下载文档和源码 来源: https:

机器学习之分类

只愿长相守 提交于 2019-11-26 13:47:25
本次使用的数据集是比较经典的mnist数据集。它有着 70000 张规格较小的手写数字图片,由美国的高中生和美国人口调查局的职员手写而成。这相当于机器学习当中的“Hello World”,人们无论什么时候提出一个新的分类算法,都想知道该算法在这个数据集上的表现如何。机器学习的初学者迟早也会处理 MNIST 这个数据集。接下来就是进行数据集的读取工作。 加载数据 机器学习的初学者迟早会接触Minist这个数据集,sklearn提供很多辅助函数用于下载流行的数据集 fetch_mldata 出错修改方式 下载文件 https://github.com/amplab/datascience-sp14/raw/master/lab7/mldata/mnist-original.mat 创建一个文件夹:datasets或mldata,将下载好的mnist-original.mat文件放在这个文件夹之中。 fetch_mldata('MNIST original', data_home="datasets"),data_home参数即为从本地导入数据的地址。 from sklearn.datasets import fetch_mldata mnist = fetch_mldata('MNIST original', data_home="sample_data") mnist X, y =

DCGAN及其TensorFlow源码

本小妞迷上赌 提交于 2019-11-26 04:00:31
上一节我们提到G和D由多层感知机定义。深度学习中对图像处理应用最好的模型是CNN,那么如何把CNN与GAN结合?DCGAN是这方面最好的尝试之一。源码: https://github.com/Newmu/dcgan_code 。DCGAN论文作者用theano实现的,他还放上了其他人实现的版本,本文主要讨论tensorflow版本。 TensorFlow版本的源码: https://github.com/carpedm20/DCGAN-tensorflow DCGAN把上述的G和D换成了两个卷积神经网络(CNN)。但不是直接换就可以了,DCGAN对卷积神经网络的结构做了一些改变,以提高样本的质量和收敛的速度,这些改变有: 取消所有pooling层。G网络中使用转置卷积(transposed convolutional layer)进行上采样,D网络中用加入strided的卷积代替pooling。 在D和G中均使用batch normalization 去掉FC层,使网络变为全卷积网络 G网络中使用ReLU作为激活函数,最后一层使用tanh D网络中使用LeakyReLU作为激活函数 这些改变在代码中都可以看到。DCGAN论文中提到对CNN结构有三点重要的改变: Allconvolutional net (Springenberg et al., 2014) 全卷积网络 判别模型D