线性代数的深入理解

。_饼干妹妹 提交于 2019-11-29 10:46:30

线性代数笔记

关于矩阵理解

reference:
矩阵理解
图片来源:b站上的教程

线性变换

  1. 所谓变换,其实就是空间里从一个点(元素/对象)到另一个点(元素/对象)的跃迁
  2. 矩阵是线性空间中的线性变换的一个描述。在一个线性空间中,只要我们选定一组基,那么对于任何一个线性变换,都能够用一个确定的矩阵来加以描述。

比如有一头猪,你打算给它拍照片,只要你给照相机选定了一个镜头位置,那么就可以给这头猪拍一张照片。这个照片可以看成是这头猪的一个描述,但只是一个片面的的描述,因为换一个镜头位置给这头猪拍照,能得到一张不同的照片,也是这头猪的另一个片面的描述。所有这样照出来的照片都是这同一头猪的描述,但是又都不是这头猪本身。

同样的,对于一个线性变换,只要你选定一组基,那么就可以找到一个矩阵来描述这个线性变换。 换一组基,就得到一个不同的矩阵。所有这些矩阵都是这同一个线性变换的描述,但又都不是线性变换本身。

若矩阵A与B是同一个线性变换的两个不同的描述(之所以会不同,是因为选定了不同的基,也就是选定了不同的坐标系),则一定能找到一个非奇异矩阵P,使得A、B之间满足这样的关系就是相似:

A=P1BPA=P^{-1}BP

那么重新来理解一下 $ Ma=b $ 等价于 Ma=IbMa=Ib ,意思是说***在M坐标系里表示出来的向量a,跟在I坐标系里表示出来的向量b,其实根本就是一个向量!***

矩阵和向量的相乘,就是一个线性变换。假设 i^=[10],j^=[01]\hat{i}=\left[ \begin{array}{c} 1\\ 0 \end{array} \right], \hat{j}=\left[ \begin{array}{c} 0 \\ 1 \end{array} \right]

是最开始的基向量,假设经过旋转变换,那么 i=[01],j=[10]i'=\left[ \begin{array}{c} 0\\ 1 \end{array} \right], j'=\left[ \begin{array}{c} -1 \\ 0 \end{array} \right]
I=[i^j^]=[1001],M=[ij]=[0110],a=[11],b=[11] I= \left[ \begin{array}{cc} \hat{i} & \hat{j} \end{array} \right]= \left[ \begin{array}{cc} 1 & 0 \\ 0 & 1 \end{array} \right], M= \left[ \begin{array}{cc} i' & j' \end{array} \right]= \left[ \begin{array}{cc} 0 & -1 \\ 1 & 0 \end{array} \right], a= \left[ \begin{array}{c} 1 \\ 1 \end{array} \right], b= \left[ \begin{array}{cc} -1\\1 \end{array} \right]

Ma=[0110][11]=[11]=I[11]=Ib Ma=\left[ \begin{array}{cc} 0 & -1 \\ 1 & 0 \end{array} \right] \left[ \begin{array}{c} 1 \\ 1 \end{array} \right] =\left[ \begin{array}{c} -1 \\ 1 \end{array} \right] =I \left[ \begin{array}{c} -1 \\ 1 \end{array} \right] = Ib

那么其实仔细看就能发现,对于 MM 矩阵,每一列相当于一个新坐标系下的基向量(M基向量 i,ji',j' ),只是这个M基向量,还是用到了原来的基向量 i^,j^\hat{i}, \hat{j} 来表示:
MaM=[xM1yM1xM2yM2][xMyM]=[xM1xM+yM1yMxM2xM+yM2yM] Ma_M=\left[ \begin{array}{cc} x_{M1} & y_{M1} \\ x_{M2} & y_{M2} \end{array} \right] \left[ \begin{array}{c} x_M \\ y_M \end{array} \right] =\left[ \begin{array}{c} x_{M1}\cdot x_M + y_{M1}\cdot y_M \\ x_{M2}\cdot x_M + y_{M2}\cdot y_M \end{array} \right]
那么理解两个矩阵相乘,则可以理解为两个线性变换的相互作用:
MN=[xMyM][xNyN]=[xM1yM1xM2yM2][xN1yN1xN2yN2]=[xM1xN1+yM1xN2xM1yN1+yM1yN2xM2xN1+yM2xN2xM2yN1+yM2yN2] MN=\left[\begin{array}{c} x_M & y_M \end{array}\right] \left[\begin{array}{c} x_N & y_N \end{array}\right] =\left[ \begin{array}{cc} x_{M1} & y_{M1} \\ x_{M2} & y_{M2} \end{array} \right] \left[ \begin{array}{c} x_{N1} & y_{N1} \\ x_{N2} & y_{N2} \end{array} \right] \\ =\left[ \begin{array}{c} x_{M1}\cdot x_{N1}+y_{M1}\cdot x_{N2}&x_{M1}\cdot y_{N1}+y_{M1}\cdot y_{N2} \\x_{M2}\cdot x_{N1}+y_{M2}\cdot x_{N2}&x_{M2}\cdot y_{N1}+y_{M2}\cdot y_{N2} \end{array} \right]

行列式

行列式的另一种理解,是线性变换后,对面积产生改变的比例,当行列式为0的时候,说明整个空间被挤压到更低维的空间中去了。行列式的负值代表整个线性变换发生了翻转。

那么用一句话解释 $ det(M_1M_2)=det(M_1)det(M_2)$ :用线性变换来解释啦

关于计算行列式等:高斯消元法 行阶梯型

点积

点积的整个过程就像是从二维空间,压缩到一维空间。两个向量点乘,就是将其中一个向量转化为线性变换。

图片左上角的变换矩阵 $ \left[\begin{array}{c} 1&-2\end{array}\right]$ 的每一列都是变换后基向量的位置,是由[1001]\left[\begin{array}{c}1&0 \\ 0&1\end{array}\right] 线性变换 而来,但是因为这个线性变换压缩了维度,所以不是 2×22\times2 的矩阵,但是,实际上,[1002]\left[\begin{array}{c} 1&0 \\ 0&-2\end{array}\right] 和向量 $ \left[\begin{array}{c} 4\3\end{array}\right]$ 相乘也是一样的。

总的来说,$ \left[\begin{array}{c} 1&-2\end{array}\right]$是一个简化了的线性变换矩阵。
[12][43]=[1002][43] \left[\begin{array}{c} 1&-2\end{array}\right] \left[\begin{array}{c} 4\\3\end{array}\right] = \left[\begin{array}{c} 1&0 \\ 0&-2\end{array}\right] \left[\begin{array}{c} 4\\3\end{array}\right]

与单位向量的点积:

投影到单位向量所在直线的投影值:

一个向量的对偶是由它定义的线性变换

一个多维空间到一维空间的线性变换 <=> 是多维空间中某个特定向量

是什么意思呢,当找到一个空间到数轴的线性变换的时候,(也就是这是一个矩阵和向量的相乘的时候,都能在原来空间中找到一个对应的向量),最后这张图中,向量 [23]\left[\begin{array}{c} 2\\ 3\end{array}\right] 就是变换矩阵 [23]\left[\begin{array}{c} 2&amp; 3\end{array}\right] 的对偶向量

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!