样本空间

概率论——随机试验、随机事件、样本空间

丶灬走出姿态 提交于 2019-12-16 02:12:01
1. 随机试验 随机试验就是试验结果呈现出不确定性的试验,且满足以下三个条件: (1) 试验可在 相同条件 下 重复 进行 (2) 试验的可能结果 不止一个 ,且所有可能结果可 事先预知 (3)每次试验的结果 只有一个 ,但 不能事先预知 例子:抛硬币,袋中摸球等。 2. 样本空间和样本点 随机试验的所有可能结果组成的 集合 称为样本空间,该集合的 元素 称为样本点。对于抛掷硬币试验,样本空间 = { 正面,反面 },正面就是此样本空间的一个样本点。 3. 随机事件和随机变量的区别联系 各自定义: (1)随机事件:随机事件是样本空间的 子集 。在每次试验中, 当且仅当 该子集中的任意 一个元素 发生时,称该随机事件发生。 (2)随机变量:随机变量是定义在样本空间上的映射。通常是将样本空间映射到 数字空间 ,这样做的目的是方便引入高等数学的方法来研究随机现象。例如,在抛掷硬币试验中,将正面与1对应,反面与0对应,那么样本空间 = { 正面,反面 } 与 随机变量X = { 1,0 } 之间建立起了 一一对应 的关系。 区别: 对于随机事件A,P(A)表示 随机事件发生 的概率;对于随机变量X,P(X)表示 随机变量取值为X 的概率。从某种意义上来说,与随机变量相比,随机事件更像是定义在样本空间上的随机常量。 ········ 来源: CSDN 作者: youroldz 链接:

Facelet-Bank for Fast Portrait Manipulation(腾讯优图:用于快速人像操作的 Facelet-Bank)

…衆ロ難τιáo~ 提交于 2019-12-10 10:07:14
本博客是腾讯优图 2018年 入选 cvpr 的论文 Facelet-Bank for Fast Portrait Manipulation 的翻译,因作者本人水平有限,部分地方翻译的可能不准确,还请读者不吝赐教,我一定马上改正! 摘要 随着智能手机和社交网络的普及,数字面部操纵已成为一种流行且引人入胜的操作图像的方式。 由于用户偏好,面部表情和配件种类繁多,因而需要通用且灵活的模型来适应不同类型的面部编辑。 在本文中,我们提出了一个基于端到端卷积神经网络的模型,该模型支持快速推理,编辑效果控制和快速局部模型更新。 另外,该模型使用具有不同属性的未配对图像集进行学习。 实验结果表明,我们的框架可以处理各种表情,配件和化妆效果。 它可以快速产生高分辨率和高质量的结果。 1.介绍 数字脸部操作旨在改变语义表达和有意义的属性,例如微笑和哀悼,或为人脸添加虚拟的妆容或者配件,比如小胡子,眼镜等。 随着智能电话和数码相机的日益普及,对实用,快速的系统的需求急剧增加。 面部操纵已成为计算机视觉和图形学火热的研究课 题[14、3、6、4、33、31、28]。举例说明: 先前的方法专门用于面部美化[19,8],反美化[10],表情操纵[28]和年龄发展[14]。 已有的解决方案,众所周知,对不同的脸部化妆或属性更改需要特殊的操作。 例如,面部美化或反美化处理肤色和纹理

BicycleGAN: Toward Multimodal Image-to-Image Translation - 1 - 论文学习,成对数据

让人想犯罪 __ 提交于 2019-12-06 00:08:38
Abstract 许多图像到图像的翻译问题是有歧义的,因为一个输入图像可能对应多个可能的输出。在这项工作中,我们的目标是在一个条件生成模型设置中建立可能的输出分布。将模糊度提取到一个低维潜在向量中,在测试时随机采样。生成器学习将给定的输入与此潜在编码映射到输出。我们明确地鼓励输出和潜在编码之间的连接是可逆的。这有助于防止训练期间从潜在编码到输出的多对一映射也称为模式崩溃问题,并产生更多样化的结果。我们通过使用不同的训练目标、网络架构和注入潜在编码的方法来探索此方法的几个变体。我们提出的方法鼓励了潜在编码模式和输出模式之间的双射一致性。我们提出了对我们的方法和其他变种在视觉真实性和多样性方面进行了一个系统的比较。 1 Introduction 深度学习技术在条件图像生成方面取得了快速的进展。例如,网络已经被用来填补缺失的图像区域[20,34,47],给灰度图像添加颜色[19,20,27,50],并从草图生成逼真的图像[20,40]。然而,这个领域的大多数技术都集中于生成单个结果。在这项工作中,我们模拟一个潜在结果的分布,因为许多这些问题可能是多模态。例如,如图1所示,根据云的模式和光照条件,夜间捕获的图像在白天可能看起来非常不同。我们追求两个主要目标:产生(1)视觉上真实的和(2)多样化的结果,同时保持对输入的忠实。 从高维输入到高维输出分布的映射具有挑战性

深度卷积生成对抗网络--DCGAN

天涯浪子 提交于 2019-12-05 10:00:54
本问转自: https://ask.julyedu.com/question/7681 ,详情请查看原文 —— 前言 :如何把CNN与GAN结合?DCGAN是这方面最好的尝试之一,DCGAN的原理和GAN是一样的,这里就不在赘述。它只是把经典GAN中的G和D换成了两个卷积神经网络(CNN)。但是,并不是直接替换就可以了, DCGAN 对卷积神经网络的结构做了一些改变,以提高样本的质量和收敛的速度。具体有哪些改变,将在本文中看到。 摘要 近年来,深度卷积神经网络(CNN)的监督学习在计算机视觉应用上发挥巨大的作用,然而CNN的非监督学习只受到较少的关注。在这项工作中我们希望有助于缩小CNN在监督学习和非监督学习成功的差距。我们提出了一种叫做深度卷积生成对抗网络的CNN,它具有一定的结构约束,展示了其在非监督学习方向上强有力的候选方案。通过在各种各样的图像数据集的训练,我们展示了令人信服的证据,我们的深度卷积对抗对(adversarial pair)从对象到场景在生成模型和判别模型上都能够学习到层级的表示。此外,我们在一些的新的任务上使用学习到的特征表明它们一般的图像表示上具有通用性。 引言 从大量未标记数据集中学习可重复使用的特征表示已经成为一个热门研究区域(been an area,一个地区,区域)。在计算机视觉背景下

深度卷积生成式对抗网络(Deep Convolutional Generative Adversarial, DCGAN)

不打扰是莪最后的温柔 提交于 2019-12-05 09:32:36
深度卷积生成式对抗网络,2019-03-26 目录 一、预备知识 (一)卷积神经网络 1. 层级结构 2. 训练算法 3. 优缺点 (二)GAN 二、模型结构 (一)模型总体思想 (二)对CNN的改进 1. 全卷积网络 2. 消除完全连接层 3. 批规范化 (二)DCGAN框架结构 三、实验 (一)实验数据集 (二)实验细节 1. 预处理 2. 参数设置 3. 正式实验 (1) 在数据集LSUN上进行实验 (2)在人脸数据集上进行实验 (3)在数据集Imagenet-1K上进行实验 四、对DCGAN能力的实验验证 (一)使用GANs作为特征提取器对CIFAR-10进行分类 (二)使用GANs作为特征提取器对SVHN数字进行分类 五、研究和可视化网络的内部结构 (一)潜在空间 (二)可视化判别器特性 (三)操作生成器的表示 1. 忘记绘制某些对象 2. 人脸样本向量算法 六、总结和展望 论文链接:https://arxiv.org/abs/1511.06434 目录 一、预备知识 (一)卷积神经网络 参考博文: https://www.cnblogs.com/skyfsm/p/6790245.html 1. 层级结构 数据输入层/Input Layer:主要是数据预处理(去均值、归一化、 PCA / 白化 等); 卷积计算层/CONV Layer:局部关联、窗口滑动(特征提取);

DCGAN论文译本

二次信任 提交于 2019-12-05 08:29:13
用深度卷积生成对抗网络进行无监督表示学习 摘要 近年来,监督学习的卷积网络( CNN )在计算机视觉应用中有着广泛的应用。相比之下,无监督的卷积网络 CNN 学习受到的关注较少。在这项工作中,我们希望可以帮助缩小有监督学习的 CNN 和无监督学习的 CNN 成功之间的差距。我们介绍了一类 CNN 叫做深度卷积生成对抗网络( DCCNG ),它具有一定的架构约束,表明它们是非监督学习的有力候选。对各种图像数据集进行训练,我们展示出令人信服的证据,证明我们的深层卷积对抗从对象部分到发生器和判别器中的场景学习了层次结构的表示。此外,我们使用学习的功能进行新颖的任务 - 证明适用于一般图像的表示 1. 前言 从来自大型的未标记的数据集学习可重用的特征表示一直是一个热门的研究领域。在计算机视觉的背景下,可以利用实际上无限量的未标记的图像和视频来学习良好的中间表示,然后可以将它用在各种监督学习任务上,如图像分类。 我们提出了一种建立好的图像表示的方法是通过训练生成对抗网络( GAN )( Goodfellow 等人, 2014 ),并随后重用发生器和判别器网络的部分作为用于监督任务的特征提取器。 GAN 为最大似然技术提供了一个有吸引力的替代方法。另外还可以争辩说,他们的学习过程和缺少启发式的代价函数(比如像素方式的独立均方差)对于表示学习来说是存在吸引力的。我们知道 GAN

DCGAN翻译

有些话、适合烂在心里 提交于 2019-12-05 08:25:50
版权声明:本文为博主原创文章,转载请注明出处。 https://blog.csdn.net/liuxiao214/article/details/73500737 </div> <link rel="stylesheet" href="https://csdnimg.cn/release/phoenix/template/css/ck_htmledit_views-3019150162.css"> <div id="content_views" class="markdown_views prism-atom-one-dark"> <!-- flowchart 箭头图标 勿删 --> <svg xmlns="http://www.w3.org/2000/svg" style="display: none;"> <path stroke-linecap="round" d="M5,0 0,2.5 5,5z" id="raphael-marker-block" style="-webkit-tap-highlight-color: rgba(0, 0, 0, 0);"></path> </svg> <p>论文原文:<a href="https://arxiv.org/pdf/1511.06434.pdf" rel="nofollow" data-token=

机器学习基础知识整理归纳

天涯浪子 提交于 2019-12-04 02:06:04
关于机器学习的一些基本概念的整理 1.前言 1.机器学习是一门致力于研究如何通过计算的手段,利用经验来改善系统自身的性能的学科。1997年Mitchell给出一个更形式化的定义,假设用P来评估计算机程序在某任务类T上的性能,若一个程序通过利用经验E在T中任务上获得了性能改善,则我们就说关于T和P,该程序对E进行了学习。 机器学习所研究的主要内容,是关于在计算机上从数据中产生“模型”的算法,即学习算法(learning algorithm)。“数据”即是现实生活中的“经验”。 关于产生的模型(model),可以泛指从数据中学得的结果。但也有不同说法。Hand在2001年发表的一篇文献中就提到,模型是全局结果(例如一颗决策树),模式指的是局部性结果(例如一条规则)。 2. 基本术语 引例,假设搜集到一些关于西瓜的数据(色泽 = 青绿;根蒂 = 蜷缩;敲声 = 浊响),(色泽 = 乌黑;根蒂 = 稍蜷;敲声 = 沉闷),(色泽 = 浅白;根蒂 = 硬挺;敲声 = 清脆),...... 上述引例中,每对括号内是关于西瓜的(也可是任何一个事件或者对象的)一条记录,则有: 数据集 (data set): 一组记录的集合 示例/样本(instance/sample):上述都每一条记录,均可称为示例/样本 属性/特征(attribute/feature)

1-基本概念(概率论与数理统计学习笔记)

旧街凉风 提交于 2019-12-03 17:34:31
目录 1. 基本概念 名词解释 随机试验: 随机事件: 基本事件: 复合事件: 样本空间: 样本点: 符号解释 1. 基本概念 名词解释 随机试验: [x] 在相同条件下可重复,即可重复试验 [x] 试验的结果不可预测 [x] 试验的结果不止一个 随机事件: [x] 随机事件是在随机试验中,可能出现也可能不出现,而在大量重复试验中具有某种规律性的事件叫做随机事件(简称事件) 基本事件: [x] 在概率论中,基本事件(也称为原子事件或简单事件)是一个仅在样本空间中单个结果的事件 复合事件: [x] 多个事件的集合,为复合事件. 样本空间: [x] 所有基本事件的集合称为样本空间,又叫全集,必然事件. 样本点: [x] 样本空间中的基本元素 符号解释 \(\emptyset\) : 空集 \(\Omega\) : 全集 来源: https://www.cnblogs.com/GGTomato/p/11805153.html

数据挖掘(机器学习)面试--SVM面试常考问题

匿名 (未验证) 提交于 2019-12-03 00:22:01
转自 https://blog.csdn.net/szlcw1/article/details/52259668 应聘数据挖掘工程师或机器学习工程师,面试官经常会考量面试者对SVM的理解。 以下是我自己在准备面试过程中,基于个人理解,总结的一些SVM面试常考问题(想到会再更新),如有错漏,请批评指正。(大神请忽视) 转载请注明出处:blog.csdn.net/szlcw1 SVM的原理是什么? SVM是一种二类分类模型。它的基本模型是在特征空间中寻找间隔最大化的分离超平面的线性分类器。(间隔最大是它有别于感知机) (1)当训练样本线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性可分支持向量机; (2)当训练数据近似线性可分时,引入松弛变量,通过软间隔最大化,学习一个线性分类器,即线性支持向量机; (3)当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机。 注:以上各SVM的数学推导应该熟悉: 硬间隔最大化(几何间隔)---学习的对偶问题---软间隔最大化(引入松弛变量) --- 非线性支持向量机(核技巧)。 SVM为什么采用间隔最大化? 当训练数据线性可分时,存在无穷个分离超平面可以将两类数据正确分开。 感知机利用误分类最小策略,求得分离超平面,不过此时的解有无穷多个。 线性可分支持向量机 利用间隔最大化求得最优分离超平面 ,这时,解是唯一的