gan

浅谈GAN生成对抗网络

*爱你&永不变心* 提交于 2019-12-03 19:16:02
浅谈GAN——生成对抗网络 重要引用: 深度学习新星:GAN的基本原理、应用和走向 | 硬创公开课 ; 生成对抗网络(GAN)相比传统训练方法有什么优势? ; 通过拳击学习生成对抗网络(GAN)的基本原理 最近总是听老板提起对抗学习,好奇之心,在网上搜集了一些相关资料,整理如下,大部分摘自重要引用的内容。 近年来,基于数据而习得“特征”的深度学习技术受到狂热追捧,而其中GAN模型训练方法更加具有激进意味:它生成数据本身。 GAN是“生成对抗网络”(Generative Adversarial Networks)的简称,由2014年还在蒙特利尔读博士的Ian Goodfellow引入深度学习领域。2016年,GAN热潮席卷AI领域顶级会议,从ICLR到NIPS,大量高质量论文被发表和探讨。Yann LeCun曾评价GAN是“20年来机器学习领域最酷的想法”。 在GAN这片新兴沃土,除了Ian Goodfellow所在的OpenAI在火力全开,Facebook的人工智能实验室也在这一领域马不停蹄深耕,而苹果近日曝出的首篇AI论文,就是基于GANs的变种“SimGAN”。从学术界到工业界,GANs席卷而来。 GANs是深度学习领域比较重要的一个模型,也是人工智能研究的一个重要工具。我们现在所追求的人工智能,一个很重要的特性就是能够像我们人类一样,理解周围复杂的世界

生成对抗网络——GAN(一)

核能气质少年 提交于 2019-12-03 19:12:41
Generative adversarial network 据有关媒体统计: CVPR2018的论文里,有三分之一的论文与GAN有关 由此可见,GAN在视觉领域的未来多年内,将是一片沃土(CVer们是时候入门GAN了)。而发现这片矿源的就是GAN之父,Goodfellow大神。 文末有基于keras的GAN代码,有助于理解GAN的原理 生成对抗网络GAN,是当今的一大热门研究方向。在2014年,被Goodfellow大神提出来,当时的G神还只是蒙特利尔大学的博士生而已。 GAN之父的主页: http://www.iangoodfellow.com/ GAN的论文首次出现在 NIPS2014 上,论文地址如下: https://arxiv.org/pdf/1406.2661.pdf 入坑GAN,首先需要理由, GAN能做什么 ,为什么要学GAN。 GAN的初衷就是 生成不存在于真实世界的数据 ,类似于使得 AI具有 创造力 或者 想象力 。应用场景如下: AI作家,AI画家等需要创造力的AI体; 将模糊图变清晰(去雨,去雾,去抖动,去马赛克等),这需要AI具有所谓的“想象力”,能脑补情节; 进行数据增强,根据已有数据生成更多新数据供以feed,可以减缓模型过拟合现象。 以上的场景都可以找到相应的paper。而且GAN的用处也远不止此,期待我们继续挖掘,是发论文的好方向哦

生成对抗网络GAN及DCGAN实验

久未见 提交于 2019-12-03 19:12:24
实验项目名称: 生成对抗网络GAN及DCGAN实验 实验学时: 3 实验原理: 生成对抗网络模型主要包括两部分:生成模型和判别模型。 生成模型是指我们可以根据任务、通过模型训练由输入的数据生成文字、图像、视频等数据。 实验目的: 学习掌握生成对抗网络(GAN)和深度卷积生成对抗网络(DCGAN)和BIGGAN基本原理;利用DCGAN和BIGGAN进行图片生成。 实验内容: 通过PC上位机连接服务器,登陆SimpleAI平台,熟悉并利用DCGAN算法进行MNIST数字手写体图像生成。在此基础上,通过查找资料,分析BIGGAN网络,分别使用DCGAN和BIGGAN两种网络进行图像生成和对比。 实验器材(设备、虚拟机名称): PC,Pycharm,TensorFlow 实验步骤: 原始数据集的搜集 首先我们需要用爬虫爬取大量的动漫图片,原文是在这个网站:http://safebooru.donmai.us/中爬取的。我尝试的时候,发现在我的网络环境下无法访问这个网站,于是我就写了一个简单的爬虫爬了另外一个著名的动漫图库网站:konachan.net - Konachan.com Anime Wallpapers。 头像截取 截取头像和原文一样,直接使用github上一个基于opencv的工具:nagadomi/lbpcascade_animeface。 训练 实验结果及分析: 结果 第

生成对抗网络(GAN)

半城伤御伤魂 提交于 2019-12-03 19:12:04
生成对抗网络(GAN) paper原文: Generative Adversarial Networks 生成对抗网络GAN 概览 做了什么 优势 不足 模型组成 生成模型 G 鉴别模型 D 核心公式 算法 图示化描述 全局最优点 Pg Pdata 效果与对比 展望 概览 做了什么 提出了新的模型 对抗模型 通过 生成模型(G) 与 鉴别模型(D) 之间的相互竞争。即D模型要将 G 生成 假数据 调出,而 G 模型要设法“骗过”D 模型的鉴别,最终提高 G 模型的生成质量 通过实验当 D 最终结果稳定在 1 2 //--> 时 G 模型生成效果最好。 优势 不需要使用Markov 决策框架 框架移植性强,可以用于各种训练、优化算法,以及现有的模型中。 两个模型都仅仅使用了 后向传播 与 dropout 算法 G 模型生成样本只需要使用 前向传播 不足 在当时未能明确找到代表 p g ( x ) //--> 产物 D 与 G 的训练必须同步,换句话说 G 不能脱离 D 的训练而更新多次。(防止出现 Helvetica scenario 问题) 模型组成 生成模型 G 通过 噪声 (一维序列)生成样本,尽力混淆 D 模型的鉴定。 随机噪声通过多层感知机生成 通过多层感知机输入 p z ( z ) //--> 映射到数据空间 G ( z ; θ g ) //--> 训练 G 来 最小化

【深度学习】生成对抗网络(GAN)的tensorflow实现

断了今生、忘了曾经 提交于 2019-12-03 19:07:42
【深度学习】生成对抗网络(GAN)的tensorflow实现 一、GAN原理 二、GAN的应用 三、GAN的tensorflow实现 参考资料 GAN( Generative Adversarial Nets )是Goodfellow I. J.大神在2014年提出的(参考资料【1】),在近几年成为人工智能领域研究的热点。本博文讲解最简单的生成对抗网络GAN原理并实现一个简单化GAN的tensorflow代码,可以作为大家入门GAN的参考资料。 一、GAN原理 原论文中给出这样一个例子:GAN由生成器( G G G )和判别器( D D D )构成。生成器就像是一个假钞制造团伙,它试图制造出完美的假钞;判别器就像是警察,试图正确分辨出所有的真钞和假钞。GAN模型就是在这种博弈的过程中训练出来的,如果最终生成器制造的假钞判别器都无法正确辨别出真假,此时的生成器就达到最优性能;如果任何生成器制造的假钞,判别器都可以准确判别,判别器就达到最优性能。 GAN的网络模型如下图所示: 假设真实训练样本为 X = { x 1 , x 2 , ⋯   , x m } X = \left\{ {{x_1},{x_2}, \cdots ,{x_m}} \right\} X = { x 1 ​ , x 2 ​ , ⋯ , x m ​ } 随机信号为 Z = { z 1 , z 2 ,

独家 | 基于生成对抗网络(GAN)的人脸变形(附链接)

[亡魂溺海] 提交于 2019-12-03 18:59:47
作者: Rudra Raina 翻译: 张一豪 校对: 吴金笛 本文约 2100 字, 建议阅读 10 分钟。 本文详细介绍了生成对抗网络(GAN)的知识,并用其变换人脸,并探寻如何利用StyleGAN生成不同属性(如年龄、微笑等)的人脸。 概述 直到最近,我才开始探索深度学习的全部内容,并在计算机视觉中遇到了这些有趣的想法和项目。 即使我的知识和经验有限,我也希望这可以帮助其他一些初学者对该领域产生兴趣并尝试一些令人兴奋的新事物。 我找到一个非常棒的YouTube频道,叫做Arxiv Insights(或者简称AI,这是个巧合吗?我看不是)。在这个频道,我发现其中一个视频是相当有趣的:如何使用生成对抗网络对人脸变形!本文是对我从上述视频中学到的知识的总结,我希望到结束时您对这个想法有一个很好的了解,并且可能想自己尝试一下。 上图中的人在现实生活中并不存在,他们是计算机生成的。朋友们,那就是GAN的力量。果这引起了您的注意,请继续阅读以了解更多信息。 第一部分: GAN是什么 GAN有一个非常简单的任务要做,就是从头开始生成数据,而这种数据甚至可以欺骗人类。 该模型由Ian Goodfellow及其同事于2014年发明,由两个神经网络组成(生成器和判别器),它们相互竞争,从而产生了一些真实的内容。 使用两个网络的目的可以概括为尽可能多地学习输入数据的基础结构

How to interpret the discriminator's loss and the generator's loss in Generative Adversarial Nets?

…衆ロ難τιáo~ 提交于 2019-12-03 11:24:06
问题 I am reading people's implementation of DCGAN, especially this one in tensorflow. In that implementation, the author draws the losses of the discriminator and of the generator, which is shown below (images come from https://github.com/carpedm20/DCGAN-tensorflow): Both the losses of the discriminator and of the generator don't seem to follow any pattern. Unlike general neural networks, whose loss decreases along with the increase of training iteration. How to interpret the loss when training

How to interpret the discriminator's loss and the generator's loss in Generative Adversarial Nets?

谁都会走 提交于 2019-12-03 02:50:30
I am reading people's implementation of DCGAN, especially this one in tensorflow. In that implementation, the author draws the losses of the discriminator and of the generator, which is shown below (images come from https://github.com/carpedm20/DCGAN-tensorflow ): Both the losses of the discriminator and of the generator don't seem to follow any pattern. Unlike general neural networks, whose loss decreases along with the increase of training iteration. How to interpret the loss when training GANs? Unfortunately, like you've said for GANs the losses are very non-intuitive. Mostly it happens