反卷积

ZFNet 论文笔记

旧时模样 提交于 2019-11-28 08:15:34
ZFNet: Visualizing and Understanding Convolutional Networks 摘要: 大型卷积网络模型在ImageNet分类任务上表现出非常好的性能 [AlexNet] 。但是却没有明确的认识,为什么性能如此优异,或者,性能还能怎么被提高。在本篇文章,我们解决了这两个问题。我们引入了一个神奇的可视化技术,它使我们能可视化网络中间的特征层和分类器的运算。作为一种诊断技术来使用,这些可视化允许我们去探究AlexNet的模型架构。我们同时实施了一个消融研究( ablation study )去发现不同模型层带来的性能提升。我们展示了我们的ImageNet上的AlexNet模型泛化的很好:当softmax分类器被重新训练后,它轻而易举地击败了当前Caltech-101和Caltech-256上的state of art结果。 消融研究 / ablation study:为了研究某一部件的作用,去掉该部件,观察网络性能及其他指标的变化,网络性能及其他指标的变化反应了改部件的作用。 为什么要进行反卷积: 为了解释卷积神经网络为什么有效,我们需要解释CNN的每一层学习到了什么东西。为了理解网络中间的每一层提取到了什么特征。文章中通过反卷积的方法,进行可视化。反卷积网络可以看成是卷积网络的逆过程。反卷积网络在文章《Adaptive

滤波之最大相关峭度反卷积MCKD(一)

坚强是说给别人听的谎言 提交于 2019-11-27 19:28:03
简介 上一章讲述了最小熵反褶积(MED)的概念,本章提出 最大相关峭度反卷积 (Maximum correlated Kurtosis deconvolution,MCKD)的概念。相比较MED方法,MCKD有以下优势: 有效提取周期性脉冲分量 克制信号的噪声影响 因此MCKD相比MED具备一定的优势,以下是MCKD的原理及算法部分,具体推导会在第二章详细描述。 原理 假设输入信号与系统呈现卷积的形式,即 x ( n ) = h ( n ) ∗ y ( n ) + e ( n ) x(n)=h(n) *y(n)+e(n) x ( n ) = h ( n ) ∗ y ( n ) + e ( n ) 先忽略噪声,目的是寻找最优滤波器 f = [ f 1 f 2 ⋯ f L ] T f=\left[\begin{array}{llll}{f_{1}} & {f_{2}} & {\cdots} & {f_{L}}\end{array}\right]^{\mathrm{T}} f = [ f 1 ​ ​ f 2 ​ ​ ⋯ ​ f L ​ ​ ] T 解出 y ( n ) y(n) y ( n ) ,即 y ( n ) = f ( n ) ∗ x ( n ) = ∑ k = 1 L f k x n − k + 1 y(n)=f(n) *x(n)=\sum_{k=1}^{L} f_{k} x_