网络模型

【中英】【吴恩达课后编程作业】Course 4 -卷积神经网络 - 第四周作业

不羁的心 提交于 2019-12-03 22:39:04
【中文】【吴恩达课后编程作业】Course 4 - 卷积神经网络 - 第四周作业 - 人脸识别与神经风格转换 上一篇: 【课程4 - 第四周测验】 ※※※※※ 【回到目录】 ※※※※※下一篇: 【待撰写-课程5 - 第一周测验】 资料下载 本文所使用的资料已上传到百度网盘 【点击下载(555.65MB)】 ,提取码:zcjp ,请在开始之前下载好所需资料,底部不提供代码。 【博主使用的python版本:3.6.2】 第一部分 - 人脸识别 给之前的“ 欢乐家 ”添加人脸识别系统 这是第4周的编程作业,在这里你将构建一个人脸识别系统。这里的许多想法来自 FaceNet 。在课堂中,吴恩达老师也讨论了 DeepFace 。 人脸识别系统通常被分为两大类: 人脸验证 :“这是不是本人呢?”,比如说,在某些机场你能够让系统扫描您的面部并验证您是否为本人从而使得您免人工检票通过海关,又或者某些手机能够使用人脸解锁功能。这些都是 1:1 匹配问题。 人脸识别 :“这个人是谁?”,比如说,在视频中的百度员工进入办公室时的脸部识别视频的介绍,无需使用另外的ID卡。这个是 1:K 的匹配问题。  FaceNet可以将人脸图像编码为一个128位数字的向量从而进行学习,通过比较两个这样的向量,那么我们就可以确定这两张图片是否是属于同一个人。 在本节中,你将学到: 实现三元组损失函数。

生成式对抗网络GAN研究进展(二)——原始GAN

女生的网名这么多〃 提交于 2019-12-03 19:17:57
【前言】 本文首先介绍生成式模型,然后着重梳理生成式模型(Generative Models)中生成对抗网络(Generative Adversarial Network)的研究与发展。作者按照GAN主干论文、GAN应用性论文、GAN相关论文分类整理了45篇近两年的论文,着重梳理了主干论文之间的联系与区别,揭示生成式对抗网络的研究脉络。 涉及的论文有: [1] Goodfellow Ian, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets[C]//Advances in Neural Information Processing Systems. 2014: 2672-2680. [2] Mirza M, Osindero S. Conditional Generative Adversarial Nets[J]. Computer Science, 2014:2672-2680. [3] Denton E L, Chintala S, Fergus R. Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks[C]//Advances in neural information processing

简单理解与实验生成对抗网络GAN

不想你离开。 提交于 2019-12-03 19:17:39
之前 GAN网络是近两年深度学习领域的新秀,火的不行,本文旨在浅显理解传统GAN,分享学习心得。现有GAN网络大多数代码实现使用python、torch等语言,这里,后面用matlab搭建一个简单的GAN网络,便于理解GAN原理。 GAN的鼻祖之作是2014年NIPS一篇文章: Generative Adversarial Net ,可以细细品味。 分享一个目前各类GAN的一个 论文整理集合 再分享一个目前各类GAN的一个 代码整理集合 开始 我们知道GAN的思想是是一种二人零和博弈思想(two-player game),博弈双方的利益之和是一个常数,比如两个人掰手腕,假设总的空间是一定的,你的力气大一点,那你就得到的空间多一点,相应的我的空间就少一点,相反我力气大我就得到的多一点,但有一点是确定的就是,我两的总空间是一定的,这就是二人博弈,但是呢总利益是一定的。 引申到GAN里面就是可以看成,GAN中有两个这样的博弈者,一个人名字是生成模型(G),另一个人名字是判别模型(D)。他们各自有各自的功能。 相同点是: 这两个模型都可以看成是一个黑匣子,接受输入然后有一个输出,类似一个函数,一个输入输出映射。 不同点是: 生成模型功能:比作是一个样本生成器,输入一个噪声/样本,然后把它包装成一个逼真的样本,也就是输出。 判别模型:比作一个二分类器(如同0-1分类器)

生成式对抗网络GAN研究进展(一)

瘦欲@ 提交于 2019-12-03 19:17:27
【前言】 本文首先介绍生成式模型,然后着重梳理生成式模型(Generative Models)中生成对抗网络(Generative Adversarial Network)的研究与发展。作者按照GAN主干论文、GAN应用性论文、GAN相关论文分类整理了45篇近两年的论文,着重梳理了主干论文之间的联系与区别,揭示生成式对抗网络的研究脉络。 涉及的论文有: [1] Goodfellow Ian, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets[C]//Advances in Neural Information Processing Systems. 2014: 2672-2680. [2] Mirza M, Osindero S. Conditional Generative Adversarial Nets[J]. Computer Science, 2014:2672-2680. [3] Denton E L, Chintala S, Fergus R. Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks[C]//Advances in neural information processing

生成对抗网络GAN详细推导

♀尐吖头ヾ 提交于 2019-12-03 19:17:00
文章目录 概述 1、什么是GAN? 2、发展历史 一、GAN模型 1、GAN的基本思想 2、GAN的基本模型 二、 GAN的训练 三、存在的问题 问题一 问题二 问题三 四、项目实战 概述 1、什么是GAN? 生成对抗网络简称GAN,是由两个网络组成的,一个生成器网络和一个判别器网络。这两个网络可以是神经网络(从卷积神经网络、循环神经网络到自编码器)。我们之前学习过的机器学习或者神经网络模型主要能做两件事:预测和分类,这也是我们所熟知的。那么是否可以让机器模型自动来生成一张图片、一段语音?而且可以通过调整不同模型输入向量来获得特定的图片和声音。例如,可以调整输入参数,获得一张红头发、蓝眼睛的人脸,可以调整输入参数,得到女性的声音片段,等等。也就是说,这样的机器模型能够根据需求,自动生成我们想要的东西。因此,GAN 应运而生! 2、发展历史 生成对抗网络是由Ian Goodfellow等人于2014年在论文 《Generative Adversarial Networks》 中提出的。学术界公开接受了GAN,业界也欢迎GAN。GAN的崛起是不可避免的。 随着《Generative Adversarial Networks》提出后,GAN产生了广泛流行的架构,如DCGAN,StyleGAN,BigGAN,StackGAN,Pix2pix,Age-cGAN,CycleGAN

生成对抗网络(GAN)应用于图像分类

生来就可爱ヽ(ⅴ<●) 提交于 2019-12-03 19:16:36
近年来,深度学习技术被广泛应用于各类数据处理任务中,比如图像、语音和文本。而生成对抗网络(GAN)和强化学习(RL)已经成为了深度学习框架中的两颗“明珠”。强化学习主要用于决策问题,主要的应用就是游戏,比如deepmind团队的AlphaGo。因为我的研究方向是图像的有监督分类问题,故本文主要讲解生成对抗网络及其在分类问题方面的应用。 生成对抗网络框架 生成对抗网络(Generative adversarial networks,简称为GAN)是2014年由Ian J. Goodfellow首先提出来的一种学习框架,说起Ian J. Goodfellow本人,可能大家印象不深刻,但他的老师正是“深度学习三巨头”之一的Yoshua Bengio(另外两位分别是Hinton和LeCun),值得一提的是,Theano深度学习框架也是由他们团队开发的,开启了符号计算的先河。关于GAN在机器学习领域的地位,在这里引用一段Lecun的评价, “There are many interesting recent development in deep learning…The most important one, in my opinion, is adversarial training (also called GAN for Generative Adversarial Networks

深度学习-54:生成式对抗网络GAN(原理、模型和演进)

ⅰ亾dé卋堺 提交于 2019-12-03 19:16:18
深度学习-52:生成式对抗网络GAN(原理、模型和演进) 深度学习原理与实践(开源图书)-总目录 , 建议收藏,告别碎片阅读! 一般的学习模型都是基于一个假设的随机分布,然后通过训练真实数据来拟合出模型。网络模型复杂并且数据集规模也不小,这种方法简直就是凭借天生蛮力解决问题。Goodfellow认为正确使用数据的方式,先对数据集的特征信息有insight之后,再干活。在2014年,Goodfellow等提出生成式对抗网络GAN(Generative adversarial networks)。 告别碎片阅读,构成知识谱系。一起阅读和完善: 机器学习&深度学习原理与实践(开源图书) Goodfellow的原始论文,请参考: Generative Adversarial Networks(GAN) 。 GAN网络由一个生成器和一个判别器构成。生成器和判别器使用多层感知机。GAN网络的架构,如下图所示。 1 GAN模型的创新 GAN模型时通过对抗过程来估计生成模型的新框架。在GAN模型框架中,生成模型与判别模型进行非合作零和博弈。生成模型可以被认为类似于造假者团队,试图生产虚假货币并在没有检测的情况下使用它,而判别模型则是类似于警察,试图检测假币。这场比赛中的比赛开始了两个团队都在改进他们的方法,直到伪造品与真品无法区分用品。 GAN模型的的主要创新: 拥有生成网络G和辨别网络D

浅谈GAN生成对抗网络

*爱你&永不变心* 提交于 2019-12-03 19:16:02
浅谈GAN——生成对抗网络 重要引用: 深度学习新星:GAN的基本原理、应用和走向 | 硬创公开课 ; 生成对抗网络(GAN)相比传统训练方法有什么优势? ; 通过拳击学习生成对抗网络(GAN)的基本原理 最近总是听老板提起对抗学习,好奇之心,在网上搜集了一些相关资料,整理如下,大部分摘自重要引用的内容。 近年来,基于数据而习得“特征”的深度学习技术受到狂热追捧,而其中GAN模型训练方法更加具有激进意味:它生成数据本身。 GAN是“生成对抗网络”(Generative Adversarial Networks)的简称,由2014年还在蒙特利尔读博士的Ian Goodfellow引入深度学习领域。2016年,GAN热潮席卷AI领域顶级会议,从ICLR到NIPS,大量高质量论文被发表和探讨。Yann LeCun曾评价GAN是“20年来机器学习领域最酷的想法”。 在GAN这片新兴沃土,除了Ian Goodfellow所在的OpenAI在火力全开,Facebook的人工智能实验室也在这一领域马不停蹄深耕,而苹果近日曝出的首篇AI论文,就是基于GANs的变种“SimGAN”。从学术界到工业界,GANs席卷而来。 GANs是深度学习领域比较重要的一个模型,也是人工智能研究的一个重要工具。我们现在所追求的人工智能,一个很重要的特性就是能够像我们人类一样,理解周围复杂的世界

生成对抗网络(GAN)

半城伤御伤魂 提交于 2019-12-03 19:12:04
生成对抗网络(GAN) paper原文: Generative Adversarial Networks 生成对抗网络GAN 概览 做了什么 优势 不足 模型组成 生成模型 G 鉴别模型 D 核心公式 算法 图示化描述 全局最优点 Pg Pdata 效果与对比 展望 概览 做了什么 提出了新的模型 对抗模型 通过 生成模型(G) 与 鉴别模型(D) 之间的相互竞争。即D模型要将 G 生成 假数据 调出,而 G 模型要设法“骗过”D 模型的鉴别,最终提高 G 模型的生成质量 通过实验当 D 最终结果稳定在 1 2 //--> 时 G 模型生成效果最好。 优势 不需要使用Markov 决策框架 框架移植性强,可以用于各种训练、优化算法,以及现有的模型中。 两个模型都仅仅使用了 后向传播 与 dropout 算法 G 模型生成样本只需要使用 前向传播 不足 在当时未能明确找到代表 p g ( x ) //--> 产物 D 与 G 的训练必须同步,换句话说 G 不能脱离 D 的训练而更新多次。(防止出现 Helvetica scenario 问题) 模型组成 生成模型 G 通过 噪声 (一维序列)生成样本,尽力混淆 D 模型的鉴定。 随机噪声通过多层感知机生成 通过多层感知机输入 p z ( z ) //--> 映射到数据空间 G ( z ; θ g ) //--> 训练 G 来 最小化

深度学习基础模型算法原理及编程实现--04.改进神经网络的方法

≡放荡痞女 提交于 2019-12-03 18:45:43
文章列表 1. 深度学习基础模型算法原理及编程实现–01.感知机 . 2. 深度学习基础模型算法原理及编程实现–02.线性单元 . 3. 深度学习基础模型算法原理及编程实现–03.全链接 . 4. 深度学习基础模型算法原理及编程实现–04.改进神经网络的方法 . 5. 深度学习基础模型算法原理及编程实现–05.卷积神经网络 . 6. 深度学习基础模型算法原理及编程实现–06.循环神经网络 . 9. 深度学习基础模型算法原理及编程实现–09.自编码网络 . 9. 深度学习基础模型算法原理及编程实现–10.优化方法:从梯度下降到NAdam . … 深度学习基础模型算法原理及编程实现–04.改进神经网络的方法 4.1 基本激活函数认知 4.1.1 sigmoid 5.1.2 tf.tanh 5.1.3 ReLU 5.1.4 Leaky ReLU 5.1.5 Softplus 5.2 增加隐藏层数 5.3 提升学习速率 5.3.1 梯度下降改为随机梯度下降 5.3.2 输出层激活函数与目标函数的选择 5.3.2.1 激活函数为sigmoid函数、损失函数为交叉项 5.3.2.2 激活函数为线性函数且损失函数为平方损失函数 5.3.2.3 损失函数为交叉项的好处 5.3.2.4 柔性最大值(softmax函数) 5.3.2.5 Softmax-loss 5.3.3