线性代数

【线性代数公开课MIT Linear Algebra】 第二十三课 微分方程与exp(At)

百般思念 提交于 2020-02-21 06:33:24
本系列笔记为方便日后自己查阅而写,更多的是个人见解,也算一种学习的复习与总结,望善始善终吧~ 一阶常系数微分方程 A u = d u d t 将一阶常系数微分方程转换为线性代数问题的关键在于常系数微分方程的解一定是 指数形式 的。那么我们的需要求解的东西就是指数的系数和指数的幂,而这可以转换为线性代数问题。 解的指数形式通常是自然常数 e 的指数(猜测是因为时域信号可以转到频域,傅里叶变换,这方面学识浅薄) 这个形式很容易让我们联想到之前对于矩阵 A 的幂的求解,这里看一个例子: 这里问题被转换为了求解 A u = d u d t 特征值与特征向量 先找 A 的特征值和特征向量 求解特征值 两个小技巧: 行列式determinant为特征值的积 矩阵的迹trace为特征值的和 当然可以直接求解determinant=0得到特征值: 由于老师直接剧透 e 的幂系数中为矩阵 A 的特征值,那么对于特征值-3来说,随着t的增加,最终这一项为0;而对于特征值0来说,随着t增加,最终这一项为某一个确定值(解会收敛);举一反三:对于特征值大于0,随着t增加,解发散。 求解特征向量 两个小技巧: 对于特征值为0,特征向量即为null space,free variable自由变量置1很容易求得 对于另一个特征值-3,利用 A − λ I 特征向量不变,也可以转换为求解null space

线性代数

十年热恋 提交于 2020-02-13 23:10:07
目录 第一章 行列式 1 二阶与三阶行列式 2 全排列及其逆序数 3 n阶行列式的定义 4 对换 5 行列式的性质 6 行列式按行(列)展开 7 克拉默法则 习题 第二章 矩阵及其运算 1 矩阵 2 矩阵的运算 3 逆矩阵 4 矩阵分块法 习题二 第三章 矩阵的初等变换与线性方程组 1 矩阵的初等变换 2 矩阵的秩 3 线性方程组的解 习题三 第四章 向量组的线性相关性 1 向量组及其线性组合 2 向量组的线性相关性 3 向量组的秩^ 4 线性方程组的解的结构 5 向量空间 习题四 第五章 相似矩阵及二次型 1 向量的内积、长度及正交性 2 方阵的特征值与特征向量 3 相似矩阵 4 对称矩阵的对角化 5 二次型及其标准形 6 用配方法化二次型成标准形 7 正定二次型 习题五 第六章 线性空间与线性变换 1 线性空间的定义与性质 2 维数、基与坐标 3 基变换与坐标变换 4 线性变换 5 线性变换的矩阵表示式 习题六 来源: https://www.cnblogs.com/end/archive/2011/11/13/2247563.html

矩阵特征值

試著忘記壹切 提交于 2020-02-13 02:19:32
参考:https://www.zhihu.com/question/21874816 如何理解矩阵特征值? 想要理解特征值,首先要理解矩阵相似。什么是矩阵相似呢?从定义角度就是:存在可逆矩阵P满足B= 则我们说A和B是相似的。让我们来回顾一下之前得出的重要结论:对于同一个线性空间,可以用两组不同的基 和基 来描述,他们之间的过渡关系是这样的: ,而对应坐标之间的过渡关系是这样的: 。其中P是可逆矩阵,可逆的意义是我们能变换过去也要能变换回来,这一点很重要。 我们知道,对于一个线性变换,只要你选定一组基,那么就可以用一个矩阵T1来描述这个线性变换。换一组基,就得到另一个不同的矩阵T2(之所以会不同,是因为选定了不同的基,也就是选定了不同的坐标系)。所有这些矩阵都是这同一个线性变换的描述,但又都不是线性变换本身。具体来说,有一个线性变换 ,我们选择基 来描述,对应矩阵是 ;同样的道理,我们选择基 来描述 ,,对应矩阵是 ;我们知道基 和基 是有联系的,那么他们之间的变换 和 有没有联系呢? 当然有, 和 就是相似的关系,具体的请看下图: <img src="https://pic1.zhimg.com/6cf43eca0f26cb1752f8fbf2633b699c_b.jpg" data-rawwidth="721" data-rawheight="449" class

numpy基础--线性代数

僤鯓⒐⒋嵵緔 提交于 2020-02-01 17:49:42
以下代码的前提: import numpy as np 线性代数(如矩阵乘法、矩阵分解、行列式以及其他方阵数学等)是任何数组库的重要组成部分。numpy提供了一个用于矩阵乘法的dot函数(既是一个数组方法也是numpy命名空间中的一个函数)。 1 >>> x = np.array([[1, 2, 3], [4, 5, 6]]) 2 >>> y = np.array([[1, 2], [3, 4], [5, 6]]) 3 >>> x 4 array([[1, 2, 3], 5 [4, 5, 6]]) 6 >>> y 7 array([[1, 2], 8 [3, 4], 9 [5, 6]]) 10 >>> np.dot(x, y) 11 array([[22, 28], 12 [49, 64]]) 13 >>> x.dot(y) 14 array([[22, 28], 15 [49, 64]]) 16 >>> numpy.linalg中有一组标准的矩阵分解运算以及诸如求逆和行列式之类的东西。 1 >>> from numpy.linalg import inv, qr 2 >>> X = np.arange(9).reshape(3, 3) 3 >>> X 4 array([[0, 1, 2], 5 [3, 4, 5], 6 [6, 7, 8]]) 7 >>> mat = X.T

线性代数(13): 特征值与特征向量

て烟熏妆下的殇ゞ 提交于 2020-01-27 07:56:07
文章目录 1 什么是特征值和特征向量 2 特征值和特征向量的相关概念 3 特征值与特征向量的性质 4 直观理解特征值与特征向量 5 numpy中求解特征值和特征向量 6 矩阵相似和背后的重要含义 7 矩阵对角化 8 矩阵对角化的应用 参考资料 注:转载请标明原文出处链接: https://xiongyiming.blog.csdn.net/article/details/103946082 1 什么是特征值和特征向量 来源: CSDN 作者: TechXYM 链接: https://blog.csdn.net/zaishuiyifangxym/article/details/103946082

原来--“线性代数---行列式”---可以这样子理解。关注我的公众号,我的排版在公众号会好点~~

蓝咒 提交于 2020-01-26 18:19:44
不好意思,这一篇原来事先是在微信公众号上编辑的,有很多排版在这里显示不了,我也是第一次在网上发表文章的小白,我是一名刚上大一学软件的小白,如果感兴趣可以关注一下我的微信公众号,希望能够有各位大佬带带我这个刚上大学的小白在写博客方面飞起来,如果有和我一样的小白也希望在微信公众号上加我好友,一起讨论计算机和数学方面的知识,嘻嘻~~~ 今天的知识点清单 二阶行列式 主、次对角线 对角线展开法 排列 逆序 逆序数 逆序数的计算方法 对换 奇偶排列 n阶行列式的展开项 行列式的特殊题型 二阶行列式 二阶行列式的个人理解: 二阶行列式指4个数组成的符号,也就是2行、2列、一共是4个元素。 二阶行列式是由二元一次方程组推导出来的,是有证明过程的,下面我们就来看看这些二阶行列式是怎样推导出来的。 二阶行列式的推导: 先随便设一组二元一次方程组: 现在我们想要消去未知量X,步骤是“通分”: 最终可以解出Y的结果表达式: 同理,对于解X的结果表达式: 嘻嘻,看出啥规律了没有? 对于上面的解二元一次方程组的过程有这样的规律: 现在我们来聊一聊这个| |是个什么意思: | |是表示行列式的意思,按照我的理解,它的结果是一个值,那么| |就应该是一个计算过程或说是一种计算规则。 二阶行列式的计算规则: 为了能够更好地理解这个计算规则,下面举一个生动的例子: 我觉得这个例子非常适合理科生的表白,嘻嘻!

线性代数(12): 行列式

a 夏天 提交于 2020-01-25 01:48:59
文章目录 1 什么是行列式 2 行列式的基本性质 3 行列式与矩阵的逆 4 行列式的计算 5 初等矩阵与行列式 6 行式就是列式 7 行列式的代数表达 参考资料 注:转载请标明原文出处链接: https://xiongyiming.blog.csdn.net/article/details/103938987 1 什么是行列式 来源: CSDN 作者: TechXYM 链接: https://blog.csdn.net/zaishuiyifangxym/article/details/103938987

线性代数(10): 正交与投影

亡梦爱人 提交于 2020-01-24 03:08:01
文章目录 1 正交基与标准正交基 2 一维投影 3 高维投影 4 标准正交基的性质 5 矩阵的QR分解 6 小结 参考资料 注:转载请标明原文出处链接: https://xiongyiming.blog.csdn.net/article/details/103934420 1 正交基与标准正交基 来源: CSDN 作者: TechXYM 链接: https://blog.csdn.net/zaishuiyifangxym/article/details/103934420

线性代数-MIT-第11讲

牧云@^-^@ 提交于 2020-01-22 07:16:16
线性代数-MIT-第11讲 目录 线性代数-MIT-第11讲 1.新向量空间的基 2.矩阵的秩 3.小世界图 1.新向量空间的基 矩阵构成向量空间: 以3x3矩阵构成的空间M为例,加法和数乘仍停留在3x3的矩阵空间中, 存在若干种子空间,如对称矩阵的子空间,上三角阵子空间,下三角阵子空间, 那子空间的基和维度是多少? 整个3x3矩阵空间的维度是9,基是九个数分别为1其他为零的矩阵; 对称矩阵的维度是6,上三角阵的维度是6,下三角阵的维度是6,对角阵维度是3; 对称矩阵空间S,上三角阵空间U,则两则交集仍是子空间维度是3,并集则不是, 但S+U,即对称矩阵空间取一元素与上三角阵取一元素求和,则得到向量空间,即3x3矩阵空间; S+U的维度是9,则dim(S+U)=dim(S)+dim(U)-dim(二者交集); 微分方程构成向量空间: 该方程的解是什么?y=cosx和y=sinx、 都是一个解; 一个微分方程的零空间或者说解空间,该空间即是微分方程所有的解; 完整解即 ,则该解空间的维度和基是什么? 一组基是cosx和sinx,维度是2; 线性微分方程的一个重要内容就是寻找解空间的一组基; 2.矩阵的秩 秩为1的矩阵:简单 dim(C(A))=rank=dim(A的转置)=1 所有秩为1的矩阵都可以写成: 一列乘以一行的形式,列向量乘以行向量,即主列乘以倍数; 举例

线性代数精华——从正交向量到正交矩阵

情到浓时终转凉″ 提交于 2020-01-21 09:33:01
向量内积 这个基本上是中学当中数学课本上的概念,两个向量的 内积 非常简单,我们直接看公式回顾一下: \[X \cdot Y = \sum_{i=1}^n x_i*y_i\] 这里X和Y都是n维的向量,两个向量能够计算内积的前提是两个向量的维度一样。从上面公式可以看出来,两个向量的内积就等于两个向量对应各个维度的分量的乘积的和。 为了和矩阵乘法以及普通的乘法做区分,我们通常把两个向量的内积写成: \([x, y]=x^Ty\) 。 这里有一个很重要的性质,对于一个向量而言,我们可以用欧几里得公式计算它的长度。进一步,我们可以用向量的长度以及向量之间的夹角来表示向量的内积,如下: \[[x, y]=|x|\cdot |y|\cos\theta\] 其中的 \(\theta\) 是x和y向量之间的夹角,对于三维及以下空间内的向量,这一点非常直观。对于高维度的向量,我们很难想象它的物理意义。不过没有关系,我们一样可以认为向量之间存在一个 广义超空间 内的一个夹角。在机器学习领域,我们通常用这个夹角来反应 向量之间的相似度 。两个向量越相似,那么它们之间的夹角应该越小,对应的cos余弦值应该越大。所以我们可以用两个向量之间的余弦值来反应它们之间的相似度。余弦值的计算就源于此。 正交向量 从上面的公式可以看出来,向量的内积等于两个向量长度乘上向量之间的夹角。对于非零向量而言