平行向量

【线性代数的本质】矩阵、线性变换、矩阵乘法与线性变换复合

微笑、不失礼 提交于 2020-04-08 11:49:49
线性代数的本质,源视频 https://www.bilibili.com/video/BV1ys411472E @ 目录 矩阵和线性变换 矩阵乘法与复合变换 Unfortunately, no one can be told what the Matrix is. You have to see it for your self. ------ Morpheus 矩阵是什么? 矩阵(Matrix)是一个按照长方阵列排列的复数或实数集合,元素是实数的矩阵称为实矩阵,元素是复数的矩阵称为复矩阵。而行数与列数都等于n的矩阵称为n阶矩阵或n阶方阵。 在线性代数中,最容易被忽略但是非常重要的一点就是线性变换的概念以及它和矩阵的关系。 矩阵和线性变换 对于变换,变换其实就是函数的另外一种说法,它接受一个输入,然后输出对应的结果。 特别的,在线性代数下,我们考虑的是接受一个向量并且输出一个向量的变换。 为什么要用变换呢? 因为 变换 是在暗示以特定的方式来可视化这 输入-输出 关系,一种理解向量的函数的方式是使用运动。 例如在二维空间中,我们将一个输入向量移动到输出向量的位置,要理解整个变换,我们可以想象每一个输入向量输出到对应输出向量的位置。 二维空间在这种变化时候,我们可以对无限网格上的所有点同时做变换,还可以保留原来坐标的网格,以便追踪起点和终点的位置。 那么什么是线性变换呢

关于矩阵

孤街浪徒 提交于 2020-03-21 22:42:27
本章所写都是通过对《工程学线性代数》和《3D数学基础:图形与游戏开发》理解所写 “不幸的是,没人告诉您矩阵像什么——您必须自己去感受。” 来自《 黑客帝国 》对白 .我们曾宣称矩阵表达坐标转换,多以当我们观察矩阵的时候,我们是在观察转换,观察新的坐标系。打这个转换开起来像什么?特定的3D矩阵(旋转,放射等)和3X3矩阵的9个数字之间有什么关系?怎么样构建一个矩阵来做这个转换(而不是盲目的照搬书上的公式)?——3D数学基础 矩阵分为实矩阵和复矩阵,元素是实数的矩阵为实矩阵,元素是复数的为复矩阵。 关于复数: http://www.cnblogs.com/ThreeThousandBigWorld/archive/2012/07/21/2602588.html 单位矩阵我们记做E 转置矩阵: 用 ' 表示转置因为右上角的小t打不出来,a为实数 1)(A')' = A; 2) (A+B)' = A' + B'; 3) (aA)' = aA'; 4) (AB)' = B'A'. 由n阶方阵A的元素所构成的行列式(个元素的位置不变),称为方阵A的行列式,记做|A|或detA 1)|A'| = |A| 2) |aA| = a^n|A| 3) |AB| = |A||B| 伴随矩阵: 行列式|A|的各个元素的代数余子式Aij所构成的矩阵然后再转置就是矩阵A的 伴随矩阵 , 记做A* AA* = A

SVM的原理及python实战

ぐ巨炮叔叔 提交于 2020-03-17 01:05:47
SVM 是英文Support Vector Machine首字母缩写,中文名 支持向量机 。 是机器学习领域最顶尖的存在,应用领域广、预测效果好,被誉为万能分类器,正是这样,SVM的理解和学习也比其他的算法要难一些。也是本人 数据挖掘专栏 的终结篇。 为了能更好的让大家理解,这里我们对里面设计的知识点进行分解处理,所以在真正学习SVM之前,先介绍一下向量与平面、拉格朗日乘子法。 目录 一、向量与平面 1、向量 2、平面 二、拉格朗日乘子法 the"milkmaid problem”--挤奶女佣问题 灵感 三、SVM 1、线性SVM 2、软间隔 3、核函数 四、python实战 1、线性可分 2、软间隔 3、核函数 五、总结 一、向量与平面 1、向量 对于一个向量 a ,只需要关心它的方向和大小(长短),即终点坐标-起点坐标,不需要关心位置。 假设有两个向量 a,b a=(a1,a2) b= (b1,b2) 根据高中知识可以得到这两个向量的内积公式 a∙ b =a1b1+a2b2=‖ a ‖ ‖ b ‖cosa 我们做一个简单的变换 我们再加入两个向量c、 d a= c + d, c⊥b 且 d//b 那么我们又可以得到 a∙ b =(c+d) ∙ b =c∙ b + d ∙ b = ‖d‖ ‖b‖ 这是最基本的公式,接下来会用到 2、平面 超平面的理解 假定W和x是n维向量

【3D数学】之向量

百般思念 提交于 2020-02-27 05:07:34
向量 向量数学定义 从数学角度来看向量就是一个数字列表,对程序而言则是数组。 数学上区分向量和标量,比如“速度”和“位移”是向量,“速率”和“长度”是标量。 向量可以从维度上区分,向量可以是任意维度的。比较特殊的是标量,可以认为是一维的向量。在图形学中,经常用到的是2维、3维和4维向量。 向量可以表示为行向量和列向量。水平书写的称为行向量,比如[1, 2, 3]。垂直书写的称为列向量,比如。 向量的几何意义 一个二维向量如下图所示。由图可以看出,向量的定义有两个要素——大小和方向。向量的大小就是向量的长度(模),向量的方向描述向量在空间的中的指向。 向量所代表的位移可以考虑分解成和坐标轴平行的分量,把分量的位移组合起来就可以得到向量作为整体所代表的位移。如下图所示,向量[1, -3, 4]表示一个位移,可以将此位移想象为向右平移1个单位,向下平移3个单位,向前平移4个单位。这些步骤的执行顺序不重要,不同的顺序会得到同样的位移量。 向量和点 “点”用来描述位置,但没有大小和厚度。“向量”描述位移,有大小和方向但没有位置。 对任意的x和y,下图展示了点(x, y)和向量[x, y]之间的关联。可以看出向量[x, y]描述原点到点(x, y)的位移量。 虽然向量和点在概念上完全不一样,但在数学上等价。两个点之间的距离为从一个点到另一个点的向量长度(模),向量长度的计算在下面会提到。

平面向量学习笔记

∥☆過路亽.° 提交于 2020-02-26 11:58:16
平面向量学习笔记 第一节 一、向量的背景——位移、速度、力 1、特点:向量、位移、力都既有大小、又有方向。 2、既有大小、又有方向的量在物理上成为矢量。 二、向量及其表示 1、概念:既有大小、又有方向的量统称为向量。其中,大小与方向是向量的二要素。 2、表示方法: (1)几何表示——有向线段 若规定线段 \(AB\) 端点 \(A\) 为起点,端点 \(B\) 为终点,则线段 \(AB\) 就有了从起点 \(A\) 到终点 \(B\) 的方向和长度。这种具有方向和长度的线段叫做有向线段,记作 $ \overrightarrow {AB} \(,其长度为\) |\overrightarrow {AB}| $。 此时,有向线段表示向量,有向线段的长度表示向量的大小,有向线段箭头所指方向表示向量的方向。 (2)字母表示 ​ ①用有向线段的起点和终点表示$ \overrightarrow {AB} $。 ​ ②用小写字母 \(a,b,c...\) 表示,书写表示为$ \overrightarrow {a},\overrightarrow {b},\overrightarrow {c}... $ 3、向量的模 \(|\overrightarrow {AB}|\) (或 \(|{a}|\) )表示 \(\overrightarrow {AB}\) (或 \({a}\) )的大小,即长度(或模)

自我高数学习笔记——知识点

妖精的绣舞 提交于 2020-02-19 22:00:40
高数学习笔记 第七章 向量代数与空间解析几何 本章难点 1、数量积、向量积的运算; 2、平面方程和直线方程及其求法; 3、平面与平面、直线与直线、平面与直线之间相互位置关系的判定; 4、二次曲面图形; 5、旋转曲面的方程。 本章内容 一、空间直角坐标系及向量 (一)空间两点间的距离 设空间有两点,坐标为 P 1 ( x 1 , y 1 , z 1 ) , Q ( x 2 , y 2 , z 2 ) P_1(x_1,y_1,z_1),Q(x_2,y_2,z_2) P 1 ​ ( x 1 ​ , y 1 ​ , z 1 ​ ) , Q ( x 2 ​ , y 2 ​ , z 2 ​ ) ,有: ∣ P 1 P 2 → ∣ = ( x 2 − x 1 ) 2 + ( y 2 − y 1 ) 2 + ( z 2 − z 1 ) 2 |\overrightarrow{P_1P_2}|=\sqrt{(x_2-x_1)^2+(y_2-y_1)^2+(z_2-z_1)^2} ∣ P 1 ​ P 2 ​ ​ ∣ = ( x 2 ​ − x 1 ​ ) 2 + ( y 2 ​ − y 1 ​ ) 2 + ( z 2 ​ − z 1 ​ ) 2 ​ 任意一点 M ( x , y , z ) M(x,y,z) M ( x , y , z ) 到原点 O ( 0 , 0 , 0 ) O(0,0,0) O (

一、向量

最后都变了- 提交于 2020-01-31 04:07:59
文章目录 向量定义 数学表示 相等、平行向量 零向量 向量运算 向量加法 标量向量乘法 向量运算性质 【应用】中点公式 基向量和坐标 一维坐标 二维坐标 三维坐标 向量的列向表示法(列向量) 向量转置 列向量的运算 列向量加法 列向量数乘 标准基向量 多维向量空间 实坐标空间 二阶多项式与向量 向量的两个基本属性 : 方向 (向量运动的 方向 ) 大小 (向量运动的 速度大小 ); 向量定义 向量(vector)指有 大小 (magnitude)和 方向 的量; 数学表示 代数表示 : 一般印刷用黑体小写英文字母a、b 等来表示,手写在字母上加一箭头(→)表示; 或用大写字母AB、CD 上加一箭头(→)表示; 几何表示 :向量可以用 有向线段 来表示; 有向线段的长度表示向量的大小,向量的大小,也是向量的长度; 长度为 0 的向量叫做 零向量 ,记作长度等于 1 个单位的向量,叫做 单位向量 ; 坐标表示 : 在平面直角坐标系中,分别取与x 轴、y 轴方向相同的两个单位向量 i,j 作为一组 基底 ; a 为平面直角坐标系内的任意向量,以坐标原点O为起点P为终点作向量a,由平面向量基本定理可知,有且只有一对实数(x,y),使得 a=xi+yj ,因此把实数对(x,y)叫做向量a 的坐标,记作 a=(x,y) 。这就是向量a 的坐标表示。其中(x,y) 就是点P 的坐标。向量a

绕任意轴旋转的推导

我是研究僧i 提交于 2020-01-23 16:29:11
万丈高楼平地起;勿在浮沙筑高台。 暂时放下其他的东西的学习,还不能称之为学习。潜心研究pbrt,看到第二章绕任意轴的旋转一部分,但是只是给了一个大体的推导,最终的推导并没有给出,所以在此做一下简单的推导。 给定一个规范化的方向向量a作为旋转轴,然后使向量v绕着这个轴旋转 θ度,如图1所示,首先我们计算一个平行于向量a的向量 ,此向量与向量a的起点相同,终点与向量v的终点(此时向量v与向量a起点相同)在以a为法线的平面上。假设向量v与a之间的夹角为 ,那么我们有 图1,绕任意轴旋转示意图 我们首先在这个平面上构造一组向量基 v 1 与 v 2 ,其中 v 1 是v 1 =v - v c , 另外一个基向量可以通过两个向量的叉乘得到:v2 = (v 1 x a),因为向量 a 是规范化的,所以v 1 与v 2 具有相同的长度,这个长度与v与v c 之间的向量长度相同。在旋转平面(v 1 与v 2 所在的平面)来计算v绕向量v c 旋转θ得到: 再继续下面推导之前先复习一下向量点乘与叉乘的基本规律: 向量点乘符合以下规律: 向量叉乘符合以下规律: 现在可以开始推导上面的公式了,推导过程如下:(手机效果太烂。。。将就着看吧) 最后附上源码: 1: Transform Rotate(float angle, const Vector &axis) { 2: Vector a =

第 7 章 支持向量机

我的未来我决定 提交于 2020-01-22 00:11:26
支持向量机(support vector machine, SVM)是一种二类分类模型,它的基本模型是 定义在特征空间上的间隔最大的线性分类器 ,间隔最大使它有别于感知机; 支持向量机还包括核技巧,这使它成为实质上的非线性分类器, 支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划(convex quadratic programming)的问题, 也等价于正则化的合页损失函数的最小化问题,支持向量机的学习算法是求解凸二次规划的最优化算法。 支持向量机学习方法包含创建由简至繁的模型。 线性可分支持向量机、线性支持向量机及非线性支持向量机。 简单模型是复杂模型的基础,也是复杂模型的特殊情况。 当训练数据线性可分时,通过硬间隔最大化(hard margin maximization),学习一个线性的分类器,即 线性可分支持向量机 (也叫硬间隔支持向量机)。 当训练数据近似线性可分时,通过软间隔最大化,也学习一个线性的分类器,即 线性支持向量机 , 又称为软间隔支持向量机; 当训练数据线性不可分时,通过使用核技巧(kenel trick)及软间隔最大化,学习 非线性支持向量机 。 当输入空间为欧式空间或者离散集合、特征空间为希尔伯特空间时,核函数(kernel function)表示将输入从输入空间映射到特征空间得到的特征向量之间的内积。 通过核函数可以学习非线性支持向量机

A Simple yet Effective Way for Improving the Performance of GANs

我怕爱的太早我们不能终老 提交于 2019-12-27 03:01:25
A Simple yet Effective Way for Improving the Performance of GANs 摘要 作者提出了一种简单而有效的方法,在不增加训练开销或修改网络结构的情况下提高生成对抗网络的性能。该方法在判别器处采用了一种新的 级联抑制(CR) 模块,迭代提取多个非重叠特征。CR模块支持判别器对真实图像和生成的图像进行有效区分,并对判别器进行了较强的惩罚。为了欺骗包含CR模块的判别器,生成的图像更接近真实图像。由于CR模块 只需要几个简单的向量运算 ,因此可以很容易地应用于现有框架,且训练代价极少。 Introduction GAN的训练不稳定,且对超参数敏感。改进方法: (1)提出了新的生成器和判别器结构 需要修改网络结构,无法广泛应用 (2)定义新的损失函数或正则化项 如增加梯度化正则项、权重归一化;通过增加辅助损失函数,将GAN与自监督学 习结合,但增加了训练代价;增加一项正则化项以最大化图像间的距离与向量距离的 比[17] [17] Qi Mao, Hsin-Ying Lee, Hung-Yu Tseng, Siwei Ma, and Ming-Hsuan Yang. Mode seeking generative adversarial networks for diverse image synthesis. In