特征向量

线性代数--MIT18.06(二十四)

空扰寡人 提交于 2020-11-09 04:53:26
正文共:1977 字 45 图 预计阅读时间: 5 分钟 前文推送 线性代数 -- MIT18.06(十三):第一部分复习 线性代数--MIT18.06(十四):正交向量和正交空间 线性代数--MIT18.06(十五):子空间投影 线性代数--MIT18.06(十六):投影矩阵和最小二乘 线性代数--MIT18.06(十七):正交矩阵和施密特正交化 线性代数--MIT18.06(十八):行列式及其性质 线性代数--MIT18.06(十九):行列式公式和代数余子式 线性代数--MIT18.06(二十):克拉默法则、逆矩阵、行列式的几何意义 线性代数--MIT18.06(二十一):特征值和特征向量 线性代数--MIT18.06(二十二):对角化和幂 线性代数--MIT18.06(二十三):微分方程 24. 特征值的应用 24.1 课程内容:马尔可夫矩阵和傅里叶级数 24.1.1 马尔科夫矩阵 马尔科夫矩阵(Markov Matrices)的定义 : 矩阵中的所有元素大于 0 且 小于等于 1 各列的元素相加之和为 1 (也有一些教材用行之和为 1 ) 可以发现, 马尔科夫矩阵的幂次依然是马尔科夫矩阵 马尔科夫矩阵的稳态问题就是有关特征值为 1 的对应特征向量,并且其他的特征值的绝对值都是小于 1 (可有其他特征值也为 1 的例外) 。为什么呢? 由前几讲的内容我们已经知道了如下等式 当

论大象如何装进冰箱

你说的曾经没有我的故事 提交于 2020-11-06 09:05:40
全世界只有 3.14 % 的人关注了 爆炸吧知识 在这美好的一天,想和大家讨论一个有趣的数学话题: 怎么才能将一只大象装进冰箱呢? 数学的方法 把大象放到冰箱里的分析学方法 1)先把大象微分,然后把它放到冰箱里,再在冰箱里把它积分。 2)重新定义冰箱或者大象的测度(如Radon测度)。 3)用Banach-Tarski定理。 把大象放到冰箱里的代数学方法 1)先证明大象的每一部分都可以放到冰箱里。 2)再证明冰箱对加法封闭。 把大象放到冰箱里的拓扑学方法 1)让大象把冰箱吞了,再把冰箱从里到外翻出来。 2)把冰箱做成Klein瓶。(补充,或任意非定向二维曲面) 把大象放到冰箱里的代数拓扑方法 1)把冰箱内部用它的包R^3替代。(补充,或证明PI1(冰箱)=0) 把大象放到冰箱里的线性代数方法 1)把大象的基先放进去,再在冰箱里张成空间。 2)把大象作奇异值分解,去掉大于冰箱维数所对应的特征值,由剩余特征向量即可恢复出一头可以放进冰箱之中的大象。 把大象放到冰箱里的仿射几何学方法 1)存在把大象放到冰箱里的仿射变换。 把大象放到冰箱里的集合论方法 1)冰箱 = {大象} 2)大象和冰箱的内部有相同的势c。 把大象放到冰箱里的复分析方法 1)把冰箱放在原点,大象放在单位圆之外,作反演变换。 把大象放到冰箱里的数值计算方法 1)把大象的尾巴放进去,剩余部分当作余项处理。 2

基于图像的三维物体重建:深度学习时代的最新技术和趋势(概述和编码)

左心房为你撑大大i 提交于 2020-11-04 02:25:36
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 概述 三维重建是一个长期存在的不适定问题,已经被计算机视觉、计算机图形学和机器学习界探索了几十年。自2015年以来,利用卷积神经网络(CNN)进行基于图像的三维重建引起了越来越多的关注,并且表现非常出色。鉴于这一快速发展的新时代,本文全面综述了这一领域的最新发展,重点研究了利用深度学习技术从单个或多个RGB图像中估计一般物体三维形状的方法。 1.简介 基于图像的三维重建的目标是从一幅或多幅二维图像中推断出物体和场景的三维几何和结构,从二维图像中恢复丢失的维数一直是经典的多视图立体和shape-from-X方法的目标,这些方法已经被广泛研究了几十年。 第一代方法是从几何的角度来处理这一问题的;它们侧重于从数学上理解和形式化三维到二维的投影过程,目的是设计不适定反问题的数学或算法解,有效的解决方案通常需要使用精确校准的摄像机拍摄多幅图像。 有趣的是,人类善于利用先验知识解决这种不适定反问题。我们只用一只眼睛就能推断出物体的大致大小和大致几何结构,甚至可以从另一个角度猜测它的样子。之所以能做到这一点,是因为所有以前看到的物体和场景都使我们能够建立起先前的知识,并建立一个物体外观的心理模型。 第二代三维重建方法试图利用这一先验知识,将三维重建问题表述为一个识别问题。深度学习技术的发展,更重要的是,大型训练数据集的可用性不断提高

从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (三)

流过昼夜 提交于 2020-11-01 05:11:30
本文属于图神经网络的系列文章,文章目录如下: 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (一) 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (二) 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (三) 恭喜你看到了本系列的第三篇!前面两篇博客分别介绍了基于循环的图神经网络和基于卷积的图神经网络,那么在本篇中,我们则主要关注在 得到了各个结点的表示后,如何生成整个图的表示 。其实之前我们也举了一些例子,比如最朴素的方法,例如图上所有结点的表示取个均值,即可得到图的表示。那有没有更好的方法呢,它们各自的优点和缺点又是什么呢,本篇主要对上面这两个问题做一点探讨。篇幅不多,理论也不艰深,请读者放心地看。 图读出操作(ReadOut) 图读出操作,顾名思义,就是用来生成图表示的。它的别名有图粗化( 翻译捉急 ,Graph Coarsening)/图池化(Graph Pooling)。对于这种操作而言,它的核心要义在于: 操作本身要对结点顺序不敏感 。 这是为什么呢?这就不得不提到图本身的一些性质了。我们都知道,在欧氏空间中,如果一张图片旋转了,那么形成的新图片 就不再是原来那张图片 了;但在非欧式空间的图上,如果一个图旋转一下,例如对它的结点重新编号

漫谈图神经网络 (三)

与世无争的帅哥 提交于 2020-11-01 02:01:30
恭喜你看到了本系列的第三篇!前面两篇分别介绍了基于循环的图神经网络和基于卷积的图神经网络,那么在本篇中,我们则主要关注在 得到了各个结点的表示后,如何生成整个图的表示 。其实之前我们也举了一些例子,比如最朴素的方法,例如图上所有结点的表示取个均值,即可得到图的表示。那有没有更好的方法呢,它们各自的优点和缺点又是什么呢,本篇主要对上面这两个问题做一点探讨。篇幅不多,理论也不艰深,请读者放心地看。 >>>> 从图(Graph)到图卷积(Graph Convolution):漫谈图 神经⽹络模型 (⼀) 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络 (二) 图读出操作(ReadOut) 图读出操作,顾名思义,就是用来生成图表示的。它的别名有图粗化( 翻译捉急 ,Graph Coarsening)/图池化(Graph Pooling)。对于这种操作而言,它的核心要义在于: 操作本身要对结点顺序不敏感 。 这是为什么呢?这就不得不提到图本身的一些性质了。我们都知道,在欧氏空间中,如果一张图片旋转了,那么形成的新图片 就不再是原来那张图片 了;但在非欧式空间的图上,如果一个图旋转一下,例如对它的结点重新编号,这样形成的图与原先的图其实是一个。这就是典型的**图重构(Graph Isomorphism)**问题。比如下面左右两个图,其实是等价的: 图重构

深度学习调参有哪些技巧?

旧巷老猫 提交于 2020-10-29 01:28:41
点击上方 “ 小白学视觉 ”,选择加" 星标 "或“ 置顶 ” 重磅干货,第一时间送达 编辑:Amusi | 来源:知乎 https://www.zhihu.com/question/25097993 本文仅作为学术分享,如果侵权,会删文处理 深度学习调参有哪些技巧? 深度学习的效果很大程度上取决于参数调节的好坏,那么怎么才能最快最好的调到合适的参数呢?求解 作者:Jarvix https://www.zhihu.com/question/25097993/answer/153674495 只想说一句:初始化 一次惨痛的教训是用normal初始化cnn的参数,最后acc只能到70%多,仅仅改成xavier,acc可以到98%。 还有一次给word embedding初始化,最开始使用了TensorFlow中默认的initializer(即glorot_uniform_initializer,也就是大家经常说的无脑使用xavier),训练速度慢不说,结果也不好。改为uniform,训练速度飙升,结果也飙升。 所以,初始化就跟黑科技一样,用对了超参都不用调;没用对,跑出来的结果就跟模型有bug一样不忍直视。 作者:BBuf https://www.zhihu.com/question/25097993/answer/934100939 大概调了快一年CNN(2019年1月到今天)

计算机视觉目标检测算法综述

主宰稳场 提交于 2020-10-28 15:09:05
计算机视觉目标检测算法综述 版权声明:转载请注明出处 https://blog.csdn.net/qq_16525279/article/details/81698684 传统目标检测三步走:区域选择、特征提取、分类回归 遇到的问题: 1.区域选择的策略效果差、时间复杂度高 2.手工提取的特征鲁棒性较差 深度学习时代目标检测算法的发展: Two-Stage: R-CNN 论文地址: Rich feature hierarchies for accurate object detection and semantic segmentation 地位:是用卷积神经网络(CNN)做目标检测的第一篇,意义影响深远。 核心思想: 1.区域选择不再使用滑窗,而是采用启发式候选区域生成算法(Selective Search) 2.特征提取也从手工变成利用CNN自动提取特征,增强了鲁棒性。 流程步骤: 1.使用Selective Search算法从待检测图像中提取2000个左右的区域候选框 2.把所有侯选框缩放成固定大小(原文采用227×227) 3.使用CNN(有5个卷积层和2个全连接层)提取候选区域图像的特征,得到固定长度的特征向量 4.将特征向量输入到SVM分类器,判别输入类别;送入到 全连接网络 以回归的方式精修候选框 优点: 1.速度 传统的区域选择使用滑窗,每滑一个窗口检测一次

矩阵转置

丶灬走出姿态 提交于 2020-10-28 12:01:50
矩阵转置定义 设A为m×n阶矩阵(即m行n列),第i 行j 列的元素是a(i,j),即:A=a(i,j) 定义A的转置为这样一个n×m阶矩阵B,满足B=b(j,i),即 a(i,j)=b (j,i)(B的第i行第j列元素是A的第j行第i列元素),记A'=B。(有些书记为 ,这里T为A的上标) 直观来看,将A的所有元素绕着一条从第1行第1列元素出发的右下方45度的射线作镜面反转,即得到A的转置。 例: 基本性质 实对称矩阵及其几大性质 定义:如果有n阶矩阵A,其矩阵的元素都为实数,且矩阵A的转置等于其本身(aij=aji)(i,j为元素的脚标),则称A为实对称矩阵。 主要性质: 1.实对称矩阵A的不同特征值对应的特征向量是正交的(网易笔试题曾考过)。 2.实对称矩阵A的特征值都是实数,特征向量都是实向量。 3.n阶实对称矩阵A必可对角化,且相似对角阵上的元素即为矩阵本身特征值。 4.若λ0具有k重特征值 必有k个线性无关的特征向量,或者说必有秩r(λ0E-A)=n-k,其中E为单位矩阵。 来源: oschina 链接: https://my.oschina.net/u/4366528/blog/3485653

什么是多模态机器学习?

岁酱吖の 提交于 2020-10-28 09:41:35
什么是多模态机器学习? 首先,什么叫做模态(Modality)呢? 每一种信息的来源或者形式,都可以称为一种模态。例如,人有触觉,听觉,视觉,嗅觉;信息的媒介,有语音、视频、文字等;多种多样的传感器,如雷达、红外、加速度计等。以上的每一种都可以称为一种模态。 同时,模态也可以有非常广泛的定义,比如我们可以把两种不同的语言当做是两种模态,甚至在两种不同情况下采集到的数据集,亦可认为是两种模态。 因此,多模态机器学习,英文全称 MultiModal Machine Learning (MMML),旨在通过机器学习的方法实现处理和理解多源模态信息的能力。目前比较热门的研究方向是图像、视频、音频、语义之间的多模态学习。 多模态学习从1970年代起步,经历了几个发展阶段,在2010后全面步入Deep Learning阶段。 人其实是一个多模态学习的总和,所以也有”砖家“说了,多模态学习才是真正的人工智能发展方向。 本文将针对多模态学习在深度学习发面的研究方向和应用做相关介绍,主要参考了来自ACL 2017的《 Tutorial on Multimodal Machine Learning 》。 多模态学习的分类 多模态学习可以划分为以下五个研究方向: 多模态表示学习 Multimodal Representation 模态转化 Translation 对齐 Alignment 多模态融合

目标检测:Anchor-Free时代

為{幸葍}努か 提交于 2020-10-27 17:44:25
  自从2018年8月CornerNet开始,Anchor-Free的目标检测模型层出不穷,最近达到了井喷的状态,宣告着目标检测迈入了Anchor-Free时代。   其实Anchor-Free并不是一个新概念了,大火的YOLO算是目标检测领域最早的Anchor-Free模型,而最近的Anchor-Free模型如FASF、FCOS、FoveaBox都能看到DenseBox的影子。   下面主要讲一下有代表性的Anchor-Free模型(包括DenseBox、YOLO、CornerNet、ExtremeNet、FSAF、FCOS、FoveaBox),分成3个部分来介绍(早期探索、基于关键点、密集预测),具体细节就不展开了~    早期探索   1   DenseBox   最早知道这篇文章,是在去年刚接触目标检测的时候,看了一篇地平线对DenseBox作者的采访,当时因为刚接触感触不深,但是从当前的时间节点回头看,DenseBox的想法是多么的超前啊。   采访中说道,当年DenseBox其实早在2015年初就已经开发出来了,这比同期的Faster-RCNN系列提前数月,但是论文直到9月才在arxiv上发布。如果DenseBox能在2015年初就发表,那么最近几年目标检测的发展会不会是另外一番景象呢~   两点贡献:   1.证明单个FCN可以检测出遮挡严重、不同尺度的目标。   2