张量

tensorflow2.0 创建张量

老子叫甜甜 提交于 2019-11-30 00:40:42
2 创建张量 Tensorflow中可以通过多种方式创建张量,如从python list对象创建,从numpy数组创建,创建采样自某种已知分布的张量。 2.1 从numpy,python List对象创建 Numpy Array数组和Python List是python程序中间非常重要的数据载体容器,很多数据都是通过Python语言将数据加载至Array或者List容器,再转换到Tensor类型,通过Tensorflow运算处理后导出到Array或者List容器,方便其他模块调用。 通过tf.convert_to_tensor可以创建新Tensor,并将保存在Python List对象或者Numpy Array对象中的数据导入到新的Tensor中: tf.convert_to_tensor([1, 2.]) tf.convert_to_tensor(np.array([[1,2 ], [3, 4]])) tf.constant()和tf.convert_to_tensor()都能够自动的把Numpy数组或者Python List数据类型转换为Tensor类型,使用其一即可。 2.2 创建全0,全1张量(tf.zeros(), tf.ones()) 将张量创建为全0或者全1数据是非常常见的张量初始化手段。 考虑线性变换 ,将权值矩阵W初始化为全1矩阵,偏置b初始化为全0向量

Keras.layer()

给你一囗甜甜゛ 提交于 2019-11-29 16:11:38
目录 Keras.layers Dense(全连接层) Activation(激活函数) Dropout Flatten(展平) Input(用于实例化 Keras 张量) Reshape(调整输入大小) Permute(置换输入的维度) RepeatVector(将输入重复 n 次) Lambda(将任意表达式封装为 Layer对象) ActivityRegularization(网络层) Masking(使用覆盖值覆盖序列) SpatialDropout1D(Dropout 的 Spatial 1D 版本) SpatialDropout2D(Dropout 的 Spatial 2D 版本) SpatialDropout3D(Dropout 的 Spatial 3D 版本) Keras.layers Dense(全连接层) Syntax: keras.layers.Dense(units, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias

TensorFlow01:张量

对着背影说爱祢 提交于 2019-11-29 15:31:38
张量的形状: 标量---1个数字---0阶张量 向量---1维数组---1阶张量 矩阵---2维数组---2阶张量 张量---n维数组---n阶张量 张量操作: tf.zeros(shape,dype=tf.float,name=None) #全零张量 tf.ones()是全1张量 tf.zeros_like(tensor,dtype=None,name=None) #创建相同类型,相同形状的张量 tf.fill(shape,value,name=None) #填充指定标量的张量 tf.constant(value,dtype=None,shape=None,name=None) #创建一个常数张量 tf.truncated_normal(shape,mean=0.0,stddev=1.0,dtype=tf.float32,seed=None,name=None)#所有数字不超过两个标准差 tf.random_normal(shape,mean=0.0,stddv=1.0,dtype=tf.float32,seed,name=None)#随机正态分布的数字组成的矩阵 tf.cast(tensor,dtype) #不会改变原始的tensor,返回新的改变类型后的tensor tensor.get_shape() # 获取tensor形状 tensor.set_shape(shape)

张量操作

不想你离开。 提交于 2019-11-29 04:34:22
张量操作 在tensorflow中,有很多操作张量的函数,有生成张量、创建随机张量、张量类型与形状变换和张量的切片与运算 生成张量 固定值张量 tf.zeros(shape, dtype=tf.float32, name=None) 创建所有元素设置为零的张量。此操作返回一个dtype具有形状shape和所有元素设置为零的类型的张量。 tf.zeros_like(tensor, dtype=None, name=None) 给tensor定单张量(),此操作返回tensor与所有元素设置为零相同的类型和形状的张量。 tf.ones(shape, dtype=tf.float32, name=None) 创建一个所有元素设置为1的张量。此操作返回一个类型的张量,dtype形状shape和所有元素设置为1。 tf.ones_like(tensor, dtype=None, name=None) 给tensor定单张量(),此操作返回tensor与所有元素设置为1 相同的类型和形状的张量。 tf.fill(dims, value, name=None) 创建一个填充了标量值的张量。此操作创建一个张量的形状dims并填充它value。 tf.constant(value, dtype=None, shape=None, name='Const') 创建一个常数张量。 用常数张量作为例子

tensorflow随机张量创建

妖精的绣舞 提交于 2019-11-29 04:33:50
TensorFlow 有几个操作用来创建不同分布的随机张量。注意随机操作是有状态的,并在每次评估时创建新的随机值。 下面是一些相关的函数的介绍: tf.random_normal 从正态分布中输出随机值。 random_normal( shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None ) args: shape:一维整数或 Python 数组表示输出张量的形状。 mean:dtype 类型的0-D张量或 Python 值表示正态分布的均值。 stddev:dtype 类型的0-D张量或 Python 值表示正态分布的标准差。 dtype:输出的类型。 seed:一个 Python 整数。用于为分发创建一个随机种子。 name:操作的名称(可选)。 返回:将返回一个指定形状的张量,通过符合要求的随机值填充。 tf.truncated_normal 生成的值遵循具有指定平均值和标准差的正态分布,和tf.random_normal不同之处在于其平均值大于 2 个标准差的值将被丢弃并重新选择。 tf.truncated_normal( shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None ) args: shape

Keras-learn-note(1)

巧了我就是萌 提交于 2019-11-28 08:17:04
越努力,越幸运。 欢迎访问我的博客 Sky’s blog 一些基本概念 在开始学习Keras之前,一些基础知识是必备的,关于深度学习的基本概念和技术,在使用Keras之前大体了解一下基础知识,这将减少你学习中的困惑。 1.符号计算 Keras的底层库使用Theano或TensorFlow,这两个库也称为Keras的后端。无论是Theano还是TensorFlow,都是一个“符号式”的库。 因此,这也使得Keras的编程与传统的Python代码有所差别。笼统的说,符号主义的计算首先定义各种变量,然后建立一个“计算图”,计算图规定了各个变量之间的计算关系。建立好的计算图需要编译以确定其内部细节,然而,此时的计算图还是一个“空壳子”,里面没有任何实际的数据,只有当你把需要运算的输入放进去后,才能在整个模型中形成数据流,从而形成输出值。 就像用管道搭建供水系统,当你在拼水管的时候,里面是没有水的。只有所有的管子都接完了,才能送水。 Keras的模型搭建形式就是这种方法,在你搭建Keras模型完毕后,你的模型就是一个空壳子,只有实际生成可调用的函数后(K.function),输入数据,才会形成真正的数据流。 2.张量 张量是什么,一上来我也一脸懵逼,看了解释之后,嗯嗯。 张量可以看作是向量、矩阵的自然推广,用张量来表示广泛的数据类型。 规模最小的张量是0阶张量,即标量,也就是一个数。

test

混江龙づ霸主 提交于 2019-11-28 06:30:47
目录 1. TensorFlow简介 2. TensorFLow编程模型、计算机制 3. 模型保存与恢复(两种方法:ckpt和PB) 保存模型 4. tensorflow中的计算图(Graph) 5. 会话Session 6. Tensor 7. 变量的创建 8. 变量赋值或更新assign() 9. TensorFlow之矩阵基本运算 1. TensorFlow简介 TensorFlow是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。TensorFlow 最初由Google大脑小组(隶属于Google机器智能研究机构)的研究员和工程师们开发出来,用于机器学习和深度神经网络方面的研究, 但这个系统的通用性使其也可广泛用于其他计算领域。它是谷歌基于DistBelief进行研发的第二代人工智能学习系统。2015年11月9日,Google发布人工智能系统TensorFlow并宣布开源。 其命名来源于本身的原理,Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算。Tensorflow运行过程就是张量从图的一端流动到另一端的计算过程。张量从图中流过的直观图像是其取名为“TensorFlow”的原因。TensorFlow的开发过程重点在于构建执行流图。 TensorFlow 是一个编程系统, 使 用图来表示计算任务 。图中的

Python之TensorFlow的基本介绍-1

烈酒焚心 提交于 2019-11-28 05:11:25
  一、TensorFlow™是一个基于 数据流编程 (dataflow programming)的符号数学系统,被广泛应用于各类 机器学习 (machine learning)算法的编程实现,其前身是 谷歌 的神经网络算法库DistBelief。   TensorFlow: 神经网络(深度) 图像:卷积神经网络 自然语言处理:循环神经网络 特点: 引入各种计算设备(CPU/GPU/TPU),以及能够很好的运行在移动端。 合理的C++使用界面,易用的Python使用界面来构造个执行你的graphs,可以直接写Python/C++程序 采用数据流图(data flow graphs),用于数值计算的开源库,能够灵活的组装图,执行图 谷歌支持,希望成为通用语言 前后端系统: 前端系统:定义程序图的机构 后端系统:运算图结构 会话: 1、运算图的结构 2、分配资源计算 3、掌握资源(变量的资源,队列,线程)   二、前面我们已经介绍了TensorFlow在人工智能领域所能做的事情了,下面会主要介绍TensorFlow的一些常用概念。   1)张量(tensor):   tensor(张量): 一个类型化的N维数组 三部分: 名字、形状、数据类型 阶:和数组的维度类似 属性: graph:张量的默认图 op:张量的操作名 name:张量的字符串描述 shape:张量的形状

深度学习面试题11:池化(same池化、valid池化、带深度的池化)

风格不统一 提交于 2019-11-27 23:54:48
目录    Same最大值池化    多深度的same池化    Same平均值池化    Valid池化    参考资料 池化(Pooling)操作与卷积类似,取输入张量的每个位置的矩形领域内的最大值或平均值作为该位置的输出。 池化操作分为same池化和valid池化,同时还可以设置移动的步长 Same最大值池化 举例:4行4列的张量x和2行3列的掩码进行步长为1的same最大值池化,其过程如下 池化的结果是 返回目录 多深度的same池化 多深度的same池化是在每个深度上分别进行池化操作。 举例:3行3列2深度的张量和2行2列2深度的掩码进行步长为2的same最大值池化 池化后不改变深度,结果为 返回目录 Same平均值池化 举例:3行3列2深度的张量和2行2列2深度的掩码进行步长为2的same平均值池化 池化后不改变深度,结果为 返回目录 Valid池化 Valid池化与same池化的不同之处在于掩码只在张量内移动,举例:4*4*1的张量x和2*2*1的掩码进行步长为1的 valid最大值池化 结果为 返回目录 参考资料 《图解深度学习与神经网络:从张量到TensorFlow实现》_张平 返回目录 目录    Same最大值池化    多深度的same池化    Same平均值池化    Valid池化    参考资料 池化(Pooling)操作与卷积类似

PyTorch入门笔记一

我的未来我决定 提交于 2019-11-27 23:48:44
张量 引入pytorch,生成一个随机的5x3张量 >>> from __future__ import print_function >>> import torch >>> x = torch.rand(5, 3) >>> print(x) tensor([[0.5555, 0.7301, 0.5655], [0.9998, 0.1754, 0.7808], [0.5512, 0.8162, 0.6148], [0.8618, 0.3293, 0.6236], [0.2787, 0.0943, 0.2074]]) 声明一个5x3的张量,张量中所有元素初始化为0 >>> x = torch.zeros(5, 3, dtype=torch.long) 从数据直接构造张量,这里的数据一般是python数组 >>> x = torch.tensor([5.5, 3]) >>> print(x) tensor([5.5000, 3.0000]) 从一个已有的tensor上类似创建新的张量,新、旧张量的形状和数据类型相同,除非对dtype进行了覆盖声明 >>> x = x.new_ones(5, 3, dtype=torch.double) >>> print(x) tensor([[1., 1., 1.], [1., 1., 1.], [1., 1., 1.], [1., 1., 1.]