张量

TensorFlow基本概念与函数

瘦欲@ 提交于 2019-12-04 18:29:45
一、张量(Tensor) 从TensorFlow的名字中就可以看出张量(Tensor)是一个很重要的概念,可以说tensorflow中的最基本单元。通俗理解就是在TensorFlow中都以Tensor为基本单元计算流的。也可以被理解为多维数组。 在张量中并没有真正保存数字,它保存的是如何得到这些数字的计算过程 。 一个张量主要保存了三个属性:名字:name,维度:shape,类型:type。 来源: https://www.cnblogs.com/gczr/p/11877535.html

Pytorch-Tensor()与tensor()

本小妞迷上赌 提交于 2019-12-04 04:30:23
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接: https://blog.csdn.net/tfcy694/article/details/85338745 本文列举的框架源码基于PyTorch1.0,交互语句在0.4.1上测试通过 import torch 1 在PyTorch中,Tensor和tensor都能用于生成新的张量: >>> a=torch.Tensor([1,2]) >>> a tensor([1., 2.]) >>> a=torch.tensor([1,2]) >>> a tensor([1, 2]) 123456 但是这二者的用法有什么区别呢?我没有找到合适的中文资料,英文的资料如 https://discuss.pytorch.org/t/what-is-the-difference-between-tensor-and-tensor-is-tensor-going-to-be-deprecated-in-the-future/17134/8 也已经过时了,那就自己动手丰衣足食吧。 首先,我们需要明确一下,torch.Tensor()是python类,更明确地说,是默认张量类型torch.FloatTensor()的别名,torch.Tensor([1,2])会调用Tensor类的构造函数_

TF_Serving 部署一个模型

我只是一个虾纸丫 提交于 2019-12-04 03:43:15
参考: 1、 https://tensorflow.google.cn/ 2、 https://www.tensorflow.org/ 3、 http://note.youdao.com/noteshare?id=92af08c5ceff28db9748f822fee05322&sub=7E5B724B2443405C9DD3D8E22C3A1EE9 TF_Serving安装参考: http://blog.csdn.net/wc781708249/article/details/78594750 本教程将向您介绍如何使用TensorFlow Serving组件导出经过训练的TensorFlow模型,并使用标准tensorflow_model_server来提供它。 如果您已经熟悉TensorFlow Serving,并且您想了解更多有关服务器内部工作方式的信息,请参阅 TensorFlow Serving高级教程 。 本教程使用TensorFlow教程中介绍的简单Softmax回归模型进行手写图像(MNIST数据)分类。 如果您不知道TensorFlow或MNIST是什么,请参阅 MNIST For ML Beginners教程 。 本教程的代码由两部分组成: 训练并导出模型的Python文件 mnist_saved_model.py 。 ModelServer二进制文件

tensorflow 生成随机数 tf.random_normal 和 tf.random_uniform 和 tf.truncated_normal 和 tf.random_shuffle

杀马特。学长 韩版系。学妹 提交于 2019-12-04 03:28:04
转载: https://blog.csdn.net/tz_zs/article/details/75948350 tf.random_normal 从正态分布中输出随机值。 random_normal(shape,mean=0.0,stddev=1.0,dtype=tf.float32,seed=None,name=None) shape:一个一维整数张量或Python数组。代表张量的形状。 mean:数据类型为dtype的张量值或Python值。是正态分布的均值。 stddev:数据类型为dtype的张量值或Python值。是正态分布的标准差。 dtype: 输出的数据类型。 seed:一个Python整数。是随机种子。 name: 操作的名称(可选) 官网api地址: https://www.tensorflow.org/versions/r1.3/api_docs/python/tf/random_normal tf.random_uniform 从均匀分布中返回随机值。 random_uniform( shape, # 生成的张量的形状 minval= 0, maxval= None, dtype=tf.float32, seed= None, name= None ) 返回值的范围默认是0到1的左闭右开区间,即[0,1)。minval为指定最小边界,默认为1

从狭义相对论洛伦兹变换到广义相对论场方程的推导

自作多情 提交于 2019-12-04 02:20:03
/*--> */ /*--> */ 写在前面 这段时间有点闲,不是因为事不多,主要也是不想干,所以看了看膜拜已久的相对论的知识,特此记录,文中涉及到的公式大多是从别的网站找到的,链接我也会在文章底部留下,感觉国内网站上简单分析相对论的并不多,或者是晦涩难懂的长篇大论,或者上升到了玄学的高度,这也是我写这篇文章的目的,这篇文章适合大多数理工科非物理专业(学过高数和线代),想要知道相对论的推导细节的人。其他人也可以看跳过公式即可。 按理说不应该将此文章放到博客园中,但是博客园对页面定制做的比较好,所以比较适合写各种文章。 一、基本概念 1.正交变换 在线性代数中,正交变换是线性变换的一种。对一个由空间 投射到同一空间 的线性转换,如果转换后的向量长度与转换前的长度相同,则为正交变换。两个向量经过正交变换后内积仍然不变 $$\begin{pmatrix}x_1'\\\\ x_2'\end{pmatrix}= \begin{pmatrix} a_{11}&a_{12} \\\\ a_{21}&a_{22} \end{pmatrix} \begin{pmatrix} x_1\\\\x_2 \end{pmatrix} $$ 就是一个变换,其中的一种正交变换为: $$\begin{pmatrix} a_{11}&a_{12} \\\\ a_{21}&a_{22} \end{pmatrix}=

PyTorch中Tensor的维度变换实现

左心房为你撑大大i 提交于 2019-12-04 02:04:56
对于 PyTorch 的基本数据对象 Tensor (张量),在处理问题时,需要经常改变数据的维度,以便于后期的计算和进一步处理,本文旨在列举一些维度变换的方法并举例,方便大家查看。 维度查看:torch.Tensor.size() 查看当前 tensor 的维度 举个例子: >>> import torch >>> a = torch.Tensor([[[1, 2], [3, 4], [5, 6]]]) >>> a.size() torch.Size([1, 3, 2]) 张量变形:torch.Tensor.view(*args) → Tensor 返回一个有相同数据但大小不同的 tensor。 返回的 tensor 必须有与原 tensor 相同的数据和相同数目的元素,但可以有不同的大小。一个 tensor 必须是连续的 contiguous() 才能被查看。 举个例子: >>> x = torch.randn(2, 9) >>> x.size() torch.Size([2, 9]) >>> x tensor([[-1.6833, -0.4100, -1.5534, -0.6229, -1.0310, -0.8038, 0.5166, 0.9774, 0.3455], [-0.2306, 0.4217, 1.2874, -0.3618, 1.7872, -0.9012, 0

张量tensorly笔记(1)――张量基础

匿名 (未验证) 提交于 2019-12-03 00:32:02
一个非常形象的图片表示了从标量到张量的演变过程 使用python里面的numpy库和tensorly库来学习张量 张量构建 import numpy as np import tensorly as tl X = tl.tensor(np.arange( 24 ).reshape( 3 , 4 , 2 )) reshape将np创建的数组变换维度,返回的是一个3*4*2的三维张量 张量分片 print ( X [:, :, 0 ]) print ( X [:, :, 1 ]) 张量矩阵化(Matricization)输出张量的三个矩阵模态 print(tl. unfold(X, mode= 0 ) ) print(tl. unfold(X, mode= 1 ) ) print(tl. unfold(X, mode= 2 ) ) 同时使用fold函数可以将矩阵转变为对应模态的张量 unfolding = tl .unfold ( X , 1 ) original_shape = X .shape tl .fold (unfolding, mode= 1 , shape=original_sha 张量与矩阵或者向量的n-mode乘(mode_dot函数) 张量乘矩阵 M = tl .tensor (np .arange ( 4 * 5 ) .reshape ( 5 , 4 ))

Tensorflow基础--创建张量、变量及占位符

匿名 (未验证) 提交于 2019-12-03 00:27:02
Tensorflow介绍 Google的Tensorflow引擎提供了一种解决机器学习问题的高效方法。机器学习在各个行业应用广泛,特别是计算机视觉、语音识别、语言翻译和健康医疗等领域。 创建张量 首先引入tensorflow import tensorflow as tf 创建指定维度的零张量 print('零张量'.center(50,'-')) zero_tsr = tf.zeros([3,3]) 创建指定维度的单位张量 print('单位张量'.center(50,'-')) one_tsr = tf.ones([3,3]) 创建指定维度的常数填充张量,这里填充数为50 print('指定维度常数张量'.center(50,'-')) filled_tsr = tf.fill([3,3],50) 创建常数张量 print('已知常数张量'.center(50,'-')) constant_tsr = tf.constant([1,3,3]) 注意内容为0.0为float格式,若为0则报错 print('序列张量'.center(50,'-')) linear_tsr = tf.linspace(start=0.0,stop=1.0,num=3)#[0,0.5,1.0] 另外一个例子是tf.range函数,这里给出范围不包含limit integer_seq_tsr = tf

tf.clip_by_value 限制在两个矩阵/张量之间的用法

匿名 (未验证) 提交于 2019-12-03 00:22:01
我们都知道tf.clip_by_value(A, min, max)可以实现将张量A中元素限制在两个值之间。 即输入一个张量A,把A中的每一个元素的值都压缩在min和max之间。小于min的让它等于min,大于max的元素的值等于max。 可是我想要实现将张量A中的元素每个位置都使用不同的取值范围,即把张量限制在两个极值张量之间代码如下: import tensorflow as tf import numpy as np A=np.arange( 12 ).reshape(( 3 , 4 )) B=np.array( [[1,2,3,4], [1,2,3,4], [1,2,3,4]] ) C=np.array( [[9,9,9,9], [9,9,9,9], [9,9,9,9]] ) print ( 'A:\n' ,A) print ( 'B:\n' ,B) print ( 'C:\n' ,C) with tf.Session() as sess: print ( 'result:\n' ,sess.run(tf.clip_by_value(A, B, C))) 输出如下: A: [[ 0 1 2 3] [ 4 5 6 7] [ 8 9 10 11]] B: [[1 2 3 4] [1 2 3 4] [1 2 3 4]] C: [[9 9 9 9] [9 9 9 9] [9 9 9