卷积积分

卷积的含义-详解

隐身守侯 提交于 2019-12-12 08:10:53
原文链接: 点击此处看知乎原文 最近需要用到卷积对图像进行处理,不明白卷积的含义,找资料的时候在知乎找到一个很优秀的评论,特此记录一下。以下内容来自于原文复制: 对卷积的困惑 卷积这个概念,很早以前就学过,但是一直没有搞懂。教科书上通常会给出定义,给出很多性质,也会用实例和图形进行解释,但究竟为什么要这么设计,这么计算,背后的意义是什么,往往语焉不详。作为一个学物理出身的人,一个公式倘若倘若给不出结合实际的直观的通俗的解释(也就是背后的“物理”意义),就觉得少了点什么,觉得不是真的懂了。 ​并且也解释了,先对g函数进行翻转,相当于在数轴上把g函数从右边褶到左边去,也就是卷积的“卷”的由来。 然后再把g函数平移到n,在这个位置对两个函数的对应点相乘,然后相加,这个过程是卷积的“积”的过程。 这个只是从计算的方式上对公式进行了解释,从数学上讲无可挑剔,但进一步追问,为什么要先翻转再平移,这么设计有何用意?还是有点费解。 在知乎,已经很多的热心网友对卷积举了很多形象的例子进行了解释,如卷地毯、丢骰子、打耳光、存钱等等。读完觉得非常生动有趣,但过细想想,还是感觉有些地方还是没解释清楚,甚至可能还有瑕疵,或者还可以改进(这些后面我会做一些分析)。 带着问题想了两个晚上,终于觉得有些问题想通了,所以就写出来跟网友分享,共同学习提高。不对的地方欢迎评论拍砖。。。 明确一下

最容易理解的对卷积(convolution)的解释

折月煮酒 提交于 2019-12-05 23:30:07
本文转自: 最容易理解的对卷积(convolution)的解释 https://www.cnblogs.com/alexanderkun/p/8149059.html 最容易理解的对卷积(convolution)的解释 啰嗦开场白 读本科期间,信号与系统里面经常讲到卷积(convolution),自动控制原理里面也会经常有提到卷积。硕士期间又学了线性系统理论与数字信号处理,里面也是各种大把大把卷积的概念。至于最近大火的深度学习,更有专门的卷积神经网络(Convolutional Neural Network, CNN),在图像领域取得了非常好的实际效果,已经把传统的图像处理的方法快干趴下了。啰啰嗦嗦说了这么多卷积,惭愧的是,好像一直以来对卷积的物理意义并不是那么清晰。一是上学时候只是简单考试,没有仔细思考过具体前后的来龙去脉。二是本身天资比较愚钝,理解能力没有到位。三则工作以后也没有做过强相关的工作,没有机会得以加深理解。趁着年前稍微有点时间,查阅了一些相关资料,力争将卷积的前世今生能搞明白。 1.知乎上排名最高的解释 首先选取知乎上对卷积物理意义解答排名最靠前的回答。 不推荐用“反转/翻转/反褶/对称”等解释卷积。好好的信号为什么要翻转?导致学生难以理解卷积的物理意义。 这个其实非常简单的概念,国内的大多数教材却没有讲透。 直接看图,不信看不懂。以离散信号为例,连续信号同理。

深度学习中的各种卷积

送分小仙女□ 提交于 2019-12-04 10:34:38
原文地址: http://www.sohu.com/a/298275731_468638 如果你听过深度学习中不同的卷积类型,包括: 2D/3D/1*1/Ttransposed/Dilated/Spatially Separable/Depthwise Separable/Flattened/Grouped/Shuffled Grouped Convolution 这些,但是并不清楚它们实际意味着什么,本文就是带大家学习这些卷积到底是如何工作的。 在本文中,我尽量使用简单明了的方式向大家解释深度学习中常用的几种卷积,希望能够帮助你建立学习体系,并为你的研究提供参考。 Convolution VS Cross-correlation 卷积是一项在信号处理、视觉处理或者其他工程/科学领域中应用广泛的技术。在深度学习中,有一种模型架构,叫做Convolution Neural Network。深度学习中的卷积本质上就是信号处理中的Cross-correlation。当然,两者之间也存在细微的差别。 在信号/图像处理中,卷积定义如下: 由上公式可以看出,卷积是通过两个函数f和g生成第三个函数的一种数学算子。对f与经过翻转和平移的g乘积进行积分。过程如下: 信号处理中的卷积。滤波器g首先翻转,然后沿着横坐标移动。计算两者相交的面积,就是卷积值。 另一方面,Cross

数学打比方(函数和卷积)

匿名 (未验证) 提交于 2019-12-02 23:40:02
就要接触很多的集合符号和函数符号,其中函数符号同学们感到特别的抽象,因而学习函数感到吃力.究其原因,还是归于对函数y~f(x)中各符号的含义的理解不深刻,如何去深刻的理解它们呢?下面笔者介绍给同学们..叹口.(1)f表示函数的对应关系,即自变量x必须要通过对应关系f起作用,才有函数值y,所以了是函数的核心和实质.(2)不同的函数,f的其体内容不一样,它可以是一个解析式(是中学阶段研究的重点),也可以是一个列表或图象(实际生活中很实用).(3)初中的函数概念里的“某变化过程中”实际上指的就是对应关系了,只是没用符号了表示,而在高中函数定义中,就用抽象符号f表示对应关系,这便于研究函数. 函数符号f,f(x),y=f(x)有什么区别? f 你可以看做是一种“法则”,或者说一种运算,加减乘除开方等等,或者多种运算复合 f(x)就是对变量x进行此运算,如果x有一个范围,那就是定义域了 y=f(x)就是将运算后的值赋予y,y的值构成的集合就是值域了 注意:对于任意给定的x,对应的y的值必须是唯一的! 卷积的来源:(精辟) 卷积其实就是为冲击函数诞生的。“冲击函数”是狄拉克为了解决一些瞬间作用的物理现象而提出的符号。古人曰:“说一堆大道理不如举一个好例子”,冲量这一物理现象很能说明“冲击函数”。在t时间内对一物体作用F的力,倘若作用时间t很小,作用力F很大,但让Ft的乘积不变,即冲量不变

对卷积的定义和意义的通俗解释

被刻印的时光 ゝ 提交于 2019-11-27 18:56:05
https://blog.csdn.net/palet/article/details/88862647 对卷积的定义和意义的通俗解释 2019年03月31日 10:17:49 东东~ 阅读数 754 标签: 卷积 版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。 本文链接: https://blog.csdn.net/palet/article/details/88862647 对卷积的困惑 卷积这个概念,很早以前就学过,但是一直没有搞懂。教科书上通常会给出定义,给出很多性质,也会用实例和图形进行解释,但究竟为什么要这么设计,这么计算,背后的意义是什么,往往语焉不详。作为一个学物理出身的人,一个公式倘若倘若给不出结合实际的直观的通俗的解释(也就是背后的“物理”意义),就觉得少了点什么,觉得不是真的懂了。 教科书上一般定义函数 的卷积 如下: 连续形式: 并且也解释了,先对g函数进行翻转,相当于在数轴上把g函数从右边褶到左边去,也就是卷积的“卷”的由来。 然后再把g函数平移到n,在这个位置对两个函数的对应点相乘,然后相加,这个过程是卷积的“积”的过程。 这个只是从计算的方式上对公式进行了解释,从数学上讲无可挑剔,但进一步追问,为什么要先翻转再平移,这么设计有何用意?还是有点费解。 好在有万能的互联网,尤其是知乎

深度学习(六):卷积运算与图像处理

女生的网名这么多〃 提交于 2019-11-26 15:57:09
在介绍卷积神经网络之前,我们需要先了解以下卷积运算和互相关运算。很多时候,我们都说卷积神经网络在图像处理方面具有很大的优势,主要原因就在于卷积运算,所以接下来就主要从图像处理和卷积的联系入手进行分析。 卷积运算在概率统计中关于随机变量的和的计算中也有出现,从数学上的定义来看,当我们有两个随机变量分别服从密度函数f和g,如果需要求它们的和t的概率密度,那么就有: s ( t ) = f ∗ g = ∫ − ∞ ∞ f ( x ) g ( − x + t ) d x s(t) = f*g = \int _{-\infty} ^{\infty} f(x) g(-x+t)dx s ( t ) = f ∗ g = ∫ − ∞ ∞ ​ f ( x ) g ( − x + t ) d x 这是一维的情况,对于二维,我们可以进一步推广: s ( u , v ) = f ∗ g = ∫ − ∞ ∞ ∫ − ∞ ∞ f ( x , y ) g ( − x + u , − y + v ) d x d y s(u,v) = f*g = \int _{-\infty} ^{\infty} \int _{-\infty} ^{\infty} f(x,y) g(-x+u, -y+v)dxdy s ( u , v ) = f ∗ g = ∫ − ∞ ∞ ​ ∫ − ∞ ∞ ​ f ( x , y ) g ( −