TensorFlow基础知识(二)
摘要:本文是TensorFlow基础知识的第二部分。 1、张量的典型应用 1.1 标量 一般用来进行误差值的表示、各种测量指标的表示,例如:准确率、精度、召回率等。下面举例: 1.2 向量 在神经网络当中,向量更是十分的常见,例如神经元的偏置值b一般就要用向量来表示,这里的向量就是 【b1,b2】 T 例如我们现在要创建一个输入为5个结点,输出层为4个结点的线性网络层,那么此时创建的网络偏置值应该就是4维的,并且在TensorFlow中默认初始值为0: 1.3 矩阵 很多情况下会用到矩阵,最典型的就是权重的表示。例如我们创建一个线性网络层: 输入:【2,4】,也就是输入特征的长度为4,样本数为2; 输出:【3,2】,也就是有三个输出,两个样本; 权值:【4,3】 具体如下: 再例如,我们可以通过Dence方法创建一个网络层,然后通过kernel属性可以直接查看权重矩阵的形式,我们设计如下的网络层:输入4个结点,输出3个结点: 1.4 三维张量和四维张量 一般来讲:语义信息用三维张量表示,第一位表示句子个数,第二位表示句子的长度,第三位表示句子中单词的编码;图像信息用四维张量表示:第一位表示图像的数目,第二位、第三位表示图像的宽和高、第四位表示图像的通道数。 2、索引和切片 2.1 索引 所谓索引就是获取某一个层面的张量的信息。有两种方式: 中括号法下标法【】【】【】...