vgg

pytorch 整理2(vgg)

≯℡__Kan透↙ 提交于 2020-01-19 01:15:36
__all__ = [ 'VGG', 'vgg11', 'vgg11_bn', 'vgg13', 'vgg13_bn', 'vgg16', 'vgg16_bn', 'vgg19_bn', 'vgg19', ] model_urls = { 'vgg11': 'https://download.pytorch.org/models/vgg11-bbd30ac9.pth', 'vgg13': 'https://download.pytorch.org/models/vgg13-c768596a.pth', 'vgg16': 'https://download.pytorch.org/models/vgg16-397923af.pth', 'vgg19': 'https://download.pytorch.org/models/vgg19-dcbb9e9d.pth', 'vgg11_bn': 'https://download.pytorch.org/models/vgg11_bn-6002323d.pth', 'vgg13_bn': 'https://download.pytorch.org/models/vgg13_bn-abd245e5.pth', 'vgg16_bn': 'https://download.pytorch.org/models/vgg16_bn-6c64b313

【深度学习】VGG-16网络结构

浪尽此生 提交于 2020-01-14 07:48:22
VGG-16,输入层224*224*3,经过两层相同的卷积,卷积filter为3*3,stride为1,filter数为64,然后经过一层pooling。接着按照相同的方式,让宽和高越来越小,而通道数逐倍增加,直到512。最后用两层相同全连接加一个softmax。 VGG-16的性能与VGG-19差不多,所以基本用VGG-16 来源: CSDN 作者: rocling 链接: https://blog.csdn.net/rocling/article/details/103833381

从头学pytorch(十六):VGG NET

谁说胖子不能爱 提交于 2020-01-10 23:44:42
VGG AlexNet在Lenet的基础上增加了几个卷积层,改变了卷积核大小,每一层输出通道数目等,并且取得了很好的效果.但是并没有提出一个简单有效的思路. VGG做到了这一点,提出了可以通过重复使⽤简单的基础块来构建深度学习模型的思路. 论文地址: https://arxiv.org/abs/1409.1556 vgg的结构如下所示: 上图给出了不同层数的vgg的结构.也就是常说的vgg16,vgg19等等. VGG BLOCK vgg的设计思路是,通过不断堆叠3x3的卷积核,不断加深模型深度.vgg net证明了加深模型深度对提高模型的学习能力是一个很有效的手段. 看上图就能发现, 连续的2个3x3卷积,感受野和一个5x5卷积是一样的,但是前者有两次非线性变换,后者只有一次! ,这就是连续堆叠小卷积核能提高 模型特征学习的关键.此外,2个3x3的参数数量也比一个5x5少.(2x3x3 < 5x5) vgg的基础组成模块,每一个卷积层都由n个3x3卷积后面接2x2的最大池化.池化层的步幅为2.从而卷积层卷积后,宽高不变,池化后,宽高减半. 我们可以有以下代码: def make_layers(in_channels,cfg): layers = [] previous_channel = in_channels #上一层的输出的channel数量 for v in cfg: if

VGG图像分割

只愿长相守 提交于 2019-12-28 05:38:34
补丁级别:VGG 在补丁级别的训练中,我们将image和ground-truth64×64像素)进行了网格化处理,每个补丁的面积为4096像素。当ground-truth中的像素值之和大于2048时,我们给相应的原始图像patch加上正的标签。否则我们就给它加上一个负号。然而,如果我们这样处理,正的图像补丁比负的图像补丁要少。为了在训练过程中平衡数据,我们通过翻转和垂直方向增加正图像patch,并在训练集中旋转90、180、270度。同时,我们通过fl增加正图像patch 在patch-level,我们在Vgg-16, incep - v3, ResNet-50网络中进行transfer learning,得到3个patch-一元分割结果和3个patch-二进制分割结果。然后我们得到了加权的补丁-一元分割结果和加权的补丁-二元分割结果。 今晚看了挺多代码有个感悟,如果想简便一些,用keras真的挺好,更多封装好的库。tf的话需要的代码行数多,不过可以根据不同需求选择吧。 关于Application Keras 的应用模块(keras.applications)提供了带有预训练权值的深度学习模型,这些模型可以用来进行预测、特征提取和微调(fine-tuning)。当你初始化一个预训练模型时,会自动下载权值到 ~/.keras/models/ 目录下。 keras内置的Model 在

深度学习图像标注工具VGG Image Annotator (VIA)使用教程

梦想与她 提交于 2019-12-26 19:47:02
VGG Image Annotator (VIA)是一款开源的图像标注工具,由Visual Geometry Group开发。 可以在线和离线使用,可标注矩形、圆、椭圆、多边形、点和线。标注完成后,可以导出为csv和json文件格式。 地址:http://www.robots.ox.ac.uk/~vgg/software/via/。 中文使用教程: 原文:https://blog.csdn.net/heiheiya/article/details/81530952 Mask_RCNN训练自己的数据,制作类似于COCO数据集中所需要的Json训练集 使用方法: 1、add files 添加要标注的图像 2、Attributes name : 填写 train Type : 填写 radio id: 填写 bill (也就是目标的类别,也可以添加多个) 3、进行标注 4、标注后,勾选region annotations 为对应的目标类别 5、所有图像标注完成后, annotation ---> export annotation as json 保存为json文件 6、 http://www.bejson.com/ 这里可以格式化标注好的json 文件 https://blog.csdn.net/qq_15969343/article/details/80167215 来源:

调用预训练vgg模型参数问题'NoneType' object is not callable

泄露秘密 提交于 2019-12-23 19:01:18
调用预训练vgg模型参数问题’NoneType’ object is not callable 报错如下 Traceback ( most recent call last ) : File "train.py" , line 50 , in < module > init_vgg16 ( './' ) File "/home/aistudio/work/utils.py" , line 52 , in init_vgg16 for ( src , dst ) in zip ( vgglua . parameters ( ) [ 0 ] , vgg . parameters ( ) ) : TypeError : 'NoneType' object is not callable 用的DID-MDN 代码,去雨模型,用了vgg16感知损失代码如下 def init_vgg16 ( model_folder ) : "" "load the vgg16 model feature" "" if not os . path . exists ( os . path . join ( model_folder , 'vgg16.weight' ) ) : if not os . path . exists ( os . path . join ( model_folder ,

VGG网络原理介绍

那年仲夏 提交于 2019-12-15 07:03:57
VGG的起源 VGG网络起源于Simonyan 和Zisserman的文章Very Deep Convolutional Networks for Large Scale Image Recognition,其中VGG是两位作者所在的牛津大学视觉几何组(Visual Geometry Group)的缩写。 VGG网络在2014年ImageNet图像分类与定位挑战赛中获得分类任务的第二名和定位任务的第一名,因其优异的性能为人熟知。该网络的主要工作证明了增加网络深度能够在一定程度上影响网络的最终性能。 VGG网络的基本结构 VGG网络根据卷积核大小和尺寸的不同可以分为六种配置方式,其中最为人所熟知的配置方式为VGG16和VGG19两种结构。 VGG网络结构如下图所示,其中VGG16的基本结构如图中的绿色标注部分,共包含: 13个卷积层(Convolutional Layer),分别用conv3-xxx表示 3个全连接层(Fully Connected Layer),分别用FC-xxxx表示 5个池化层(Pool layer),分别用maxpool表示 注意一些表示方法: Conv3-512 第三层卷积后围堵编程512; Conv3_2 s=2 第三层卷积层里面的第二子层,滑动步长等于2(每次移动2个格子) 卷积层和全连接层具有权重系数,因此也被称之为权重层,总数目为13+3=16

动手学PyTorch | (24) VGGNet

烂漫一生 提交于 2019-12-08 14:48:02
AlexNet在LeNet的基础上增加了3个卷积层。但AlexNet作者对它们的卷积窗口、输出通道数和构造顺序均做了⼤量的调整。虽然AlexNet指明了深度卷积神经网络可以取得出色的结果,但并没有提供简单的规则以指导后来的研究者如何设计新的网络。我们将在后续⼏节里介绍几种不同的深度⽹络设计思路。 本节介绍VGG,它的名字来源于论⽂作者所在的实验室Visual Geometry Group 。VGG提出了 可以通过􏰀重复使用简单的基础块来构建深度模型的思路。 目录 1. VGG块 2. VGG网络 3. 获取数据和训练模型 4. 小结 1. VGG块 VGG块的组成规律是:连续使⽤数个相同的填充为1、窗⼝形状为3*3的卷积层后接上⼀个步幅为2、窗⼝形状为2*2的最大池化层。卷积层保持输⼊的⾼和宽不变,而池化层则对其减半。我们使⽤vgg_block函数来实现这个基础的VGG块,它可以指定卷积层的数量和输入输出通道数. 对于给定的感受野􏰁(与输出有关的输入图⽚的局部⼤小),采用堆积的小卷积核优于采用⼤的卷积核,因为可以增加网络深度来保证学习更复杂的模式,⽽且代价还比较小(参数更少)。例如,在 VGG中,使⽤了3个3x3卷积核来代替7x7卷积核,使⽤了2个3x3卷积核来代替5*5卷积核,这样做的主要⽬的是在保证具有相同感知􏰁的条件下,提升了⽹络的深度,在一定程度上提升了神经⽹络的效果。

继承nn.Module后的 init与forward函数【trian_val、vgg16、faster_rcnn、rpn】.py 学习 文件结构 大工程安排

只愿长相守 提交于 2019-12-05 21:57:10
本篇文章主要是用来学习 大工程的构造, 具体包括如何进行 init和forward ,如何层层递进,高层设置输入,传入底层的input中。 从train_val.py中的初始化vgg开始,这里调用了vgg的初始化,嵌套faster_rcnn初始化,再内嵌套调用rpn初始化,调anchor_target_layer/prosal_layer的初始化。 其中faster_rcnn的forward函数中,利用self调用了顶层vgg的函数,如base_feat = self.RCNN_base(im_data),这里返回了基础rcnn之后的共享卷进层。而RCNN_base的定义则是在vgg的_init_modules(self)当中。注意到在train_val.py中应当先是执行了vgg的_init_modules(self),再进行fasterRCNN的传入数据,因为fasterRCNN的forward需要vgg当中的init_modules. init调用层次 从trian_val.py开始: fasterRCNN = vgg16 (imdb.classes, pretrained=True, class_agnostic=args.class_agnostic)#调用的 vgg的init 再看 vgg的init,vgg里的self是第一层的self class vgg16(

VGG梳理

亡梦爱人 提交于 2019-12-05 05:30:55
创新点(小卷积核、小池化核、层数更深、全连接变卷积) 对AlexNet改进,在第一个卷积层中使用了更小的卷积核和卷积stride 多尺度(训练和测试时,采用图片的不同尺度(当然是按各向同性缩放的最小边划定标准)) 层数深 测试阶段,将三个全连接变为三个卷积层,以适应任何大小的图片输入(最后那里是score map求平均) 不同层次的网络结构 从上图可以看出,依旧延续了AlexNet的5-3结构(5个卷积快,3个全连接,其中最后一个是输出) 实验结果 LRN无用 加深网络,可以提高精度 多尺度输入(训练)可以提高精度 多尺度测试也可以提高精度(多尺度训练、多尺度测试合称尺度抖动) 融合dense evaluation和multi-scale evaluation效果好 dense evaluation表示不进行224×224的裁剪,直接放入网络,全连接改为卷积 感受野的大小 卷积神经网络特征图上的像素点映射回原图上的大小 两个问题 Q1:为什么使用3×3的卷积核 (1)减小参数量,若生成相同大小的特征图,三个3×3的卷积相当于一个7×7的卷积: 3×(C×3×3×C)=27C 2 C×7×7×C = 49C 2 (2)激活层增加,增加非线性 Q2:1×1卷积核的作用 (1)一种为决策增加非线性因素的方式 (2)调整网络的维度扩维或者缩小维度 来源: https://www