Inception

预训练模型迁移学习

烈酒焚心 提交于 2020-12-25 12:00:31
摘要: 本文通过使用Keras及一个预训练模型的实例,教你如何通过迁移学习快速简便地解决图像分类问题。 摘要:如何快速简便地解决图像分类问题呢?本文通过使用Keras及一个预训练模型的实例,教你如何通过迁移学习来解决这个问题。 深度学习 正在迅速成为人工智能应用开发的主要工具。在计算机视觉、自然语言处理和语音识别等领域都已有成功的案例。 深度学习擅长解决的一个问题是 图像分类 。图像分类的目标是根据一组合理的类别对指定的图片进行分类。从深度学习的角度来看,图像分类问题可以通过 迁移学习 的方法来解决。 本文介绍了如何通过迁移学习来解决图像分类的问题。 本文中所提出的实现方式是基于Python语言的Keras。 本文结构: 1)迁移学习 2)卷积神经网络 3)预训练模型的复用 4)迁移学习过程 5)深度卷积神经网络上的分类器 6)示例 7)总结 1、迁移学习 迁移学习在计算机视觉领域中是一种很流行的方法,因为它可以 建立精确的模型,耗时更短 。利用迁移学习,不是从零开始学习,而是从之前解决各种问题时学到的模式开始。这样,你就可以利用以前的学习成果(例如VGG、 Inception、MobileNet),避免从零开始。我们把它看作是站在巨人的肩膀上。 在计算机视觉领域中,迁移学习通常是通过使用 预训练模型 来表示的。预训练模型是在大型基准数据集上训练的模型,用于解决相似的问题

aspp

喜你入骨 提交于 2020-12-18 14:05:34
用法:pc上20ms aspp = ASPP(320, [3, 6, 9]) input = torch.randn(2, 320, 10, 10) # torch.onnx.export(pelee_net, input, "pelee_net.onnx", verbose=True) for i in range(10): start=time.time() # x, *shortcuts = net(input) # print(time.time()-start,x.shape) start = time.time() x=aspp(input) print(2,time.time() - start, x.shape) from torch.nn import functional as F class ASPPPooling(nn.Sequential): def __init__(self, in_channels, out_channels): super(ASPPPooling, self).__init__( nn.AdaptiveAvgPool2d(1), nn.Conv2d(in_channels, out_channels, 1, bias=False), nn.BatchNorm2d(out_channels), nn.ReLU()) def

三个月(敏捷)项目收获

倖福魔咒の 提交于 2020-12-17 08:54:24
项目背景 客户已有运行多年的官网老站(PC端),想在今年对老站进行一次UI全面更新、功能全部平移的升级,对接新的运营后端,然后建立官网小程序端且与官网PC端进行联动,使得品牌自有渠道能够更加全面化。 挑战 时间紧。五月份进行Inception Workshop,确定项目交付范围与架构方案。官网六月初开始开发,小程序八月份开始开发,整个项目九月中旬必须上线。 系统集成和数据迁移。系统需要对接客户的CRM,对接3个服务商,需要对老官网历史数据(订单、会员等)进行迁移。 多团队沟通。小程序设计稿由第三方提供,因此多出了沟通、确认的时间,以及把控第三方交付的时间,以避免交付进度的影响。 迭代计划 Inception Workshop一结束,差不多就开始整理整个项目涉及的故事和技术卡,按照两周一迭代进行迭代计划安排并与客户确认,每个迭代第一周周三安排跟客户showcase上一周的预定的交付结果,得到反馈并安排进行改进。官网项目比较顺利,改造自定义了一下SSR框架就能开始进行开发,并且因为历史原因,还能享受到上一个项目遗留的一些福利,当然也少不了一些坑。 小程序的时间比较紧,相当于整个复制了一遍官网的功能,主要是前端任务,后端可以复用官网后端,因此一开始就给团队同学同步到整个项目的情况,让大家有一个大概的心理准备。然后就是与官网类似的处理,整个交付内容进行迭代排期并与客户确认

惊艳了!升级版的 APDrawing,秒让人脸照变线条肖像画

半腔热情 提交于 2020-12-13 12:40:59
作者 | 高卫华 出品 | AI科技大本营 随着深度学习的发展,GAN模型在图像风格转换的应用越来越多,其中不少都实现了很好的效果。 此前,reddit上的一个技术博主AtreveteTeTe基于GAN模型混合将普通的人像照片卡通化,并通过First Order Motion模型生成了动画,引起诸多网友的热捧。像这类卡通风格的画像生成,通常对单元素的质量要求不高,对于模型的训练,会忽略一些细节上的不足。 不过,最近一个开发者在GitHub上放出了一个可用于创建线条艺术肖像的项目,基于深度学习开发了ArtLine,其创建的线条肖像画在细节上的呈现效果惊人。 项目链接: https://github.com/vijishmadhavan/ArtLine ArtLine最简单的入门方法: https://colab.research.google.com/github/vijishmadhavan/Light-Up/blob/master/ArtLine(Try_it_on_Colab).ipynb 艺术肖像线条画方面,去年清华大学曾提出一个层次化的GAN模型 APDrawingGAN ,可以有效地基于人脸照片生成高质量、富有表现力的线条画。 但APDrawingGAN在识别面部特征方面存在局限性,例如在识别与ID照片类似的正面照片时

JS编程: 递归

ε祈祈猫儿з 提交于 2020-12-11 09:09:09
想成为一个更好的开发者,那么理解数据结构、算法和基本编程思想是必须的。现在大多数问题都被现代工具和各种库解决了,但是对这些领域有一个更深的了解,将会大大拓宽你软件开发的视野。 就我自己而言,掌握这些概念是相当困难的,因为在我每天的工作里,几乎都不用这些。我正在写的这一系列文章就是为了提升我和那些跟我一样的人对这些方面的理解。 什么是递归 递归是主要的编程思想之一。毫无疑问,你已经在一些算法书籍和文章里,以及计算斐波纳契数列或者相似内容的例子里,看到了一些可怕的词汇。但作为一个网页开发人员,在你的日常编码工作或者实现排序算法时,可能并没有用到斐波纳契数列,至少我没有。 当我第一次开始阅读关于递归时,在理解哪里能被正确的使用时遇到了问题。我知道这个方法的好处以及在某些特定算法里的用途,但是很难找到更应该使用递归而不是迭代的场景。 在继续之前——本文希望你对递归和JavaScript有一个基本的了解。所以,让我们从一个我觉得容易理解的定义开始: 递归就是一个函数调用自身,直到达到某个特定状态。 让我们把它分为两部分,然后分别讨论。一个 调用自身的函数 意思是在函数体内,我们将调用同一个函数—— 初始化(inception) ,对吗?你第一次看见一个递归函数的时候,可能会打破你对函数执行的理解,但它绝对是正常的。 当我们使用递归,它会一直持续到 到达某一特定状态 为止。在某些情况下

升级版APDrawing,人脸照秒变线条肖像画,细节呈现惊人

戏子无情 提交于 2020-12-10 01:06:41
作者 | 高卫华 出品 | AI科技大本营 随着深度学习的发展,GAN模型在图像风格转换的应用越来越多,其中不少都实现了很好的效果。 此前,reddit上的一个技术博主AtreveteTeTe基于GAN模型混合将普通的人像照片卡通化,并通过First Order Motion模型生成了动画,引起诸多网友的热捧。像这类卡通风格的画像生成,通常对单元素的质量要求不高,对于模型的训练,会忽略一些细节上的不足。 不过,最近一个开发者在GitHub上放出了一个可用于创建线条艺术肖像的项目,基于深度学习开发了ArtLine,其创建的线条肖像画在细节上的呈现效果惊人。 项目链接: https://github.com/vijishmadhavan/ArtLine ArtLine最简单的入门方法: https://colab.research.google.com/github/vijishmadhavan/Light-Up/blob/master/ArtLine(Try_it_on_Colab).ipynb 艺术肖像线条画方面,去年清华大学曾提出一个层次化的GAN模型 APDrawingGAN ,可以有效地基于人脸照片生成高质量、富有表现力的线条画。 但APDrawingGAN在识别面部特征方面存在局限性,例如在识别与ID照片类似的正面照片时

paper reading----Xception: Deep Learning with Depthwise Separable Convolutions

两盒软妹~` 提交于 2020-12-05 03:27:03
背景以及问题描述: Inception-style models的基本单元是Inception module。Inception model是Inception module堆砌而成,这与VGG-style network这种由简单的conv layer堆砌而成的网络不一样。虽然Inception modules在概念上还是卷积,用于卷积特征的提取,能够利用更少的参数来学习更加richer的表达。那么他们到底是怎么做到的呢?他们与regular convolution有什么不同呢?Inception之后应该跟那些strategies呢? Inception Hypothesis: 卷积层学习的是3D空间中的filters,两个spatial dimension,一个channel dimension。single filter kernel既要mapping cross-channel correlations,又要mapping spatial correlation。Inception背后的想法是将这个过程简化,使之更有效,采取的策略是,对cross-channel correlation mapping和spatial correlation mapping进行分离,首先通过1*1的conv探索cross-channel correlation

GAN生成的评价指标 Evaluation of GAN

醉酒当歌 提交于 2020-12-04 15:52:27
传统方法中,如何衡量一个generator ?—— 用 generator 产生数据的 likelihood,越大越好。 但是 GAN 中的 generator 是隐式建模,所以只能从 P_G 中采样但没法根据 pdf 算 likelihood。 一个方法是把从 P_G 中采样得到的点当作是一个高斯分布的 mean,所有的 sample 都共享一样的 variance,然后就共同构成了 GMM 来估计 pdf ,然后就可以算 likelihood 了。困难是,要sample 几个点(要几个高斯)才估计的准?而且也不一定 likelihood 高,生成的质量就高。总之,这个方法问题还是很多的 比较客观的方法是,拿一个已经训练好的分类器来做判别 还需要从 diverse 的方向来衡量(避免发现不了 mode collapse 的问题),生成一组数据得到一组不同的 distributions,把它们平均起来。如果分布比较平均说明比较 diverse,不会太单一。 综合一下这两个原则,就得到了 inception score:把某个单一的生成数据喂给现成的分类器,属于某一类的概率越大越好;同时把所有的生成数据喂给现成的分类器,产生一堆 distribution 然后做平均,越平滑越好。 来源: oschina 链接: https://my.oschina.net/u/4371092

从39个kaggle竞赛中总结出来的图像分割的Tips和Tricks

会有一股神秘感。 提交于 2020-12-04 13:24:39
作者: Derrick Mwiti 编译:ronghuaiyang 来源公众号:AI公园 导读 作者参加了39个Kaggle比赛,总结了非常多的技巧和经验,现在全部分享给大家。 想象一下,如果你能得到所有的tips和tricks,你需要去参加一个Kaggle比赛。我已经超过39个Kaggle比赛,包括: Data Science Bowl 2017 – $1,000,000 Intel & MobileODT Cervical Cancer Screening – $100,000 2018 Data Science Bowl – $100,000 Airbus Ship Detection Challenge – $60,000 Planet: Understanding the Amazon from Space – $60,000 APTOS 2019 Blindness Detection – $50,000 Human Protein Atlas Image Classification – $37,000 SIIM-ACR Pneumothorax Segmentation – $30,000 Inclusive Images Challenge – $25,000 现在把这些知识都挖出来给你们! 外部数据 使用 LUng Node Analysis Grand

2020 ICML 全部论文

∥☆過路亽.° 提交于 2020-12-01 11:33:20
All Papers 38 - ShapeCaptioner: Generative Caption Network for 3D Shapes by Learning a Mapping from Parts Detected in Multiple Views to Sentences "Zhizhong Han (University of Maryland, College Park); Chao Chen (Tsinghua University); Yu-Shen Liu (Tsinghua University)*; Matthias Zwicker (University of Maryland)" 46 - VideoIC: A Video Interactive Comments Dataset and Multimodal Multitask Learning for Comments Generation Weiying Wang (Renmin University of China)*; Jieting Chen (Renmin University of China); Qin Jin (Renmin University of China) 53 - Image Inpainting Based on Multi-frequency