范数

Scikit-learn数据变换

匿名 (未验证) 提交于 2019-12-03 00:41:02
转载自: https://blog.csdn.net/Dream_angel_Z/article/details/49406573 本文主要是对照 scikit-learn的preprocessing 章节结合代码简单的回顾下预处理技术的几种方法,主要包括标准化、数据最大最小缩放处理、正则化、特征二值化和数据缺失值处理。内容比较简单,仅供参考! 首先来回顾一下下面要用到的基本知识。 均值公式: 方差公式: 0-范数,向量中非零元素的个数。 1-范数: 2-范数: p-范数的计算公式: 数据标准化:当单个特征的样本取值相差甚大或明显不遵从高斯正态分布时,标准化表现的效果较差。实际操作中,经常忽略特征数据的分布形状,移除每个特征均值,划分离散特征的标准差,从而等级化,进而实现数据中心化。 公式为:(X-X_mean)/X_std 计算时对每个属性/每列分别进行. 将数据按其属性(按列进行)减去其均值,然后除以其方差。最后得到的结果是,对每个属性/每列来说所有数据都聚集在0附近,方差值为1。 首先说明下sklearn中preprocessing库里面的scale函数使用方法: sklearn.preprocessing.scale(X, axis= 0 , with_mean= True ,with_std= True , copy = True ) 1 根据参数的不同

向量与矩阵范数

匿名 (未验证) 提交于 2019-12-03 00:34:01
在刚入门机器学习中的低秩,稀疏模型时,被各种范数搅得一团糟,严重延缓了学习进度,经过一段时间的学习,现在将其完整的总结一下,希望遇到同样麻烦的同学能有所帮助。。。 首先定义一个向量为:a=[-5,6,8, -10] 向量的1范数即:向量的各个元素的绝对值之和,上述向量a的1范数结果就是:29,MATLAB代码实现为:norm(a,1); 向量的2范数即:向量的每个元素的平方和再开平方根,上述a的2范数结果就是:15,MATLAB代码实现为:norm(a,2); 1.向量的负无穷范数即:向量的所有元素的绝对值中最小的:上述向量a的负无穷范数结果就是:5,MATLAB代码实现为:norm(a,-inf); 2..向量的正无穷范数即:向量的所有元素的绝对值中最大的:上述向量a的负无穷范数结果就是:10,MATLAB代码实现为:norm(a,inf); 首先我们将介绍数学中矩阵的范数的情况,也就是无论哪个学科都统一的一种规定。。。 例如矩阵A = [ -1 2 -3; 4 -6 6] 矩阵的1范数即:矩阵的每一列上的元素绝对值先求和,再从中取个最大的,(列和最大),上述矩阵A的1范数先得到[5,8,9],再取最大的最终结果就是:9,MATLAB代码实现为:norm(A,1); 矩阵的2范数即:矩阵 ATA” role=”presentation” style=”position:

机器学习笔记-范数

匿名 (未验证) 提交于 2019-12-03 00:32:02
https://blog.csdn.net/left_la/article/details/9159949 1、向量范数 1-范数: 2-范数: ,Euclid范数(欧几里得范数,常用计算向量长度),即向量元素绝对值的平方和再开方,matlab调用函数norm(x, 2)。 ∞-范数: ,即所有向量元素绝对值中的最大值,matlab调用函数norm(x, inf)。 -∞-范数: ,即所有向量元素绝对值中的最小值,matlab调用函数norm(x, -inf)。 p-范数: ,即向量元素绝对值的p次方和的1/p次幂,matlab调用函数norm(x, p)。 2、矩阵范数 1-范数: , 列和范数,即所有矩阵列向量绝对值之和的最大值,matlab调用函数norm(A, 1)。 2-范数: ,谱范数,即A'A矩阵的最大特征值的开平方。matlab调用函数norm(x, 2)。 ∞-范数: ,行和范数,即所有矩阵行向量绝对值之和的最大值,matlab调用函数norm(A, inf)。 F-范数: ,Frobenius范数,即矩阵元素绝对值的平方和再开平方,matlab调用函数norm(A, ’fro‘)。 附matlab中norm函数说明 The norm of a matrix is a scalar that gives some measure of the magnitude

numpy:计算向量范数

匿名 (未验证) 提交于 2019-12-03 00:26:01
import numpy as np # 计算欧氏距离 s1 = np.array([ 0 , 1.2 , 1.5 , 0 , 0 , 0 , 0 , 0 , 0 ]) s2 = np.array([ 1.2 , 0 , 0.8 , 0 , 0 , 0 , 0 , 0 , 0 ]) op1 = np.sqrt(np.sum(np.square(s1 - s2))) op2 = np.linalg.norm(s1-s2) print( "op1:" ,op1, "op2:" ,op2) op1: 1.835755975068582 op2: 1.835755975068582 #计算曼哈顿距离 op1 = np.sum(np.abs(s1 - s2)) op2 = np.linalg.norm(s1- s2,ord= 1 ) print( "op1:" ,op1, "op2:" ,op2) op1: 3.0999999999999996 op2: 3.0999999999999996 #计算切比雪夫距离 op1 = np.abs(s1-s2).max() op2 = np.linalg.norm(s1-s2,ord=np.inf) print( "op1:" ,op1, "op2:" ,op2) op1: 1.2 op2: 1.2 计算余弦距离: #余弦距离 op1 = np.dot

矩阵的迹和矩阵范数

匿名 (未验证) 提交于 2019-12-03 00:22:01
定义: 在线性代数中,一个n×n矩阵 A 的主对角线(从左上方至右下方的对角线)上各个元素的总和被称为矩 阵 的 迹 (或 迹 数 ),一般记作 tr( A ) 。 迹是所有对角元的和 迹是所有特征值的和 某些时候也利用tr(AB)=tr(BA)来求迹 trace(mA+nB)=m trace(A)+n trace(B) Matrix norm(矩阵范数): 定义: 和B及所有实数a 文章来源: 矩阵的迹和矩阵范数

GANerated Hands for Real-Time 3D Hand Tracking from Monocular RGB 论文解读

匿名 (未验证) 提交于 2019-12-03 00:21:02
这篇文章是CVPR2018的一篇论文。 主要贡献点有以下几点: 1、使用cyclegan的思想 可以对没有成对的生成人手数据进行真实化。 2、能够从RGB图像(没有深度信息)生成3D人手模型 下图是作者的主要思想图 regnet是将2D的人手坐标映射到一个三维坐标。 训练数据集: geocongan: E3Dloss是这样的 Zj表示的是第j个关节相对root节点的位置。 第j个节点的坐标可以表示为其父节点的坐标加上真实3D坐标的差的二范数除以regnet的输出差(2维坐标)的2范数 *(输出之差) 所以3D项的用途就是让3D坐标的相对距离在2范数上一致 这一个能量项的目的是防止关节扭曲过大 文章来源: GANerated Hands for Real-Time 3D Hand Tracking from Monocular RGB 论文解读

向量空间、内积空间、欧式空间以及希尔伯特空间的关系

匿名 (未验证) 提交于 2019-12-03 00:18:01
在数学中有许多空间表示,比如向量空间、内积空间、欧式空间以及希尔伯特空间等。 具体的距离:实际上距离除了我们经常用到的直线距离外,还有向量距离, 函数距离、 曲面距离、折线距离等等,这些具体的距离与距离之间的关系类似于苹果、香蕉等与水果的关系,前面是具体的事物,后面是抽象的概念。 距离就是一个抽象的概念,其定义为: 设X是任一非空集,对X中任意两点x,y,有一实数d(x,y)与之对应且满足: 1. d(x,y) ≥0,且d(x,y)=0当且仅当x=y; 2. d(x,y)=d(y,x); 3. d(x,y) ≤d(x,z)+d(z,y)。 称d(x,y)为X中的一个距离。 定义了距离后,我们再加上线性结构,如向量的加法、数乘,使其满足加法的交换律、结合律、零元、负元;数乘的交换律、单位一;数乘与加法的结合律(两个)共八点要求,从而形成一个线性空间,这个线性空间就是 向量空间 。 在向量空间中,我们定义了范数的概念,表示某点到空间零点的距离: 1. ||x|| ≥0; 2. ||ax||=|a|||x||; 3. ||x+y||≤||x||+||y||。 将范数与距离比较,可知,范数比距离多了一个条件2,数乘的运算,表明其是一个强化了的距离概念。范数与距离的关系可以类似理解为与红富士苹果与苹果的关系。 接下来对范数和距离进行扩展,形成如下: 下面在已经构成的线性赋范空间上继续扩展

Pytorch-属性统计

匿名 (未验证) 提交于 2019-12-03 00:12:02
引言 本篇介绍Pytorch属性统计的几种方式。 求值或位置 norm mean sum prod max, min, argmin, argmax kthvalue, topk norm norm指的是范数,并不是normalize。 normalize是归一化,例如 batch_norm。 要更好的理解范数,就要从函数、几何与矩阵的角度去理解。 我们都知道,函数与几何图形往往是有对应的关系,这个很好想象,特别是在三维以下的空间内,函数是几何图像的数学概括,而几何图像是函数的高度形象化,比如一个函数对应几何空间上若干点组成的图形。 但当函数与几何超出三维空间时,就难以获得较好的想象,于是就有了映射的概念,映射表达的就是一个集合通过某种关系转为另外一个集合。通常数学书是先说映射,然后再讨论函数,这是因为函数是映射的一个特例。 为了更好的在数学上表达这种映射关系,(这里特指线性关系)于是就引进了矩阵。这里的矩阵就是表征上述空间映射的线性关系。而通过向量来表示上述映射中所说的这个集合,而我们通常所说的基,就是这个集合的最一般关系。于是,我们可以这样理解, 一个集合(向量),通过一种映射关系(矩阵),得到另外一个几何(另外一个向量) 。 向量的范数,就是表示这个原有集合的大小 。 矩阵的范数,就是表示这个变化过程的大小的一个度量 。 总结起来一句话, 范数(norm),是具有“长度

L2范数归一化概念和优势

匿名 (未验证) 提交于 2019-12-02 23:48:02
\[{{\bf{X}}_2} = \left( {\frac{{{x_1}}}{{{{\left\| {\bf{x}} \right\|}_2}}},\frac{{{x_2}}}{{{{\left\| {\bf{x}} \right\|}_2}}}, \cdots ,\frac{{{x_n}}}{{{{\left\| {\bf{x}} \right\|}_2}}}} \right) = \left( {\frac{{{x_1}}}{{\sqrt {x_1^2 + x_2^2 + \cdots + x_n^2} }},\frac{{{x_2}}}{{\sqrt {x_1^2 + x_2^2 + \cdots + x_n^2} }}, \cdots ,\frac{{{x_n}}}{{\sqrt {x_1^2 + x_2^2 + \cdots + x_n^2} }}} \right)\] \[{\left\| {\bf{A}} \right\|_2} = \sqrt {{2^2} + {3^2} + {6^2}} = \sqrt {4 + 9 + 36} = \sqrt {49} = 7\] \[{{\bf{A}}_2} = \left( {\frac{2}{7},\frac{3}{7},\frac{6}{7}} \right)\] 图1 L2范数可以看作是向量的长度 L2范数有一大优势