高斯

《机器学习》西瓜书第十三章半监督学习

℡╲_俬逩灬. 提交于 2019-12-04 00:00:41
半监督学习 13.1 未标记样本 在实际生活中,常常会出现一部分样本有标记和较多样本无标记的情形。如何利用未标记样本数据呢? 主动学习:从未标记样本中挑选不确定性高或分类置信度低的样本来咨询专家进行打标。最后使用扩充后的训练集重新训练学习器,这样便能大幅度降低标记成本,这便是主动学习,其目标是使用尽量少的,有价值的查询来获得更好的性能。 显然,主动学习需要与外界进行交互,其本质仍然属于一种监督学习。事实上,无标记样本通标记样本都是从同样的数据源独立同分布采样得来,他们所包含的关于数据分布的信息对建立模型将大有裨益。 让学习不依赖外界交互、自动地利用未标记样本来提升学习性能,就是半监督学习。即训练集同时包含有标记样本数据和未标记样本数据。 聚类假设:假设数据存在簇结构,同一个簇的样本属于同一个类别。 流形假设:假设数据分布在一个流形结构上,邻近的样本你拥有相似的输出值。邻近程度常用相似程度来刻画,因此,流形假设可以看做聚类假设的推广,但流形假设对输出值没有限制,因此适用范围更广。 事实上,聚类假设和流形假设其本质都是相似的样本有相似的输出。 半监督学习可进一步划分为纯半监督学习和直推学习,两者的区别在于:纯半监督学习假定训练数据中的未标记样本并非待预测的数据,而直推学习假定学习过程中未标记样本恰是待预测数据,学习的目的就是在这些未标记样本上获得最优泛化性能。 13.2 生成式方法

P3389 【模板】高斯消元法

拥有回忆 提交于 2019-12-03 08:03:07
P3389 【模板】高斯消元法 1 #include <bits/stdc++.h> 2 using namespace std; 3 const int maxn = 105; 4 typedef double Matrix[maxn][maxn]; 5 void gauss_elimination(Matrix &A, int n) { 6 // 消元过程 7 int i, j, k, r; 8 for (i = 0; i < n; ++i) { 9 // 选一行r并与第i行交换 10 r = i; 11 for (j = i+1; j < n; ++j) 12 if (fabs(A[j][i]) > fabs(A[r][i])) r = j; 13 if (r != i) for (j = 0; j <= n; ++j) swap(A[r][j], A[i][j]); 14 15 if (!A[i][i]) { 16 puts("No Solution"); 17 exit(0); 18 } 19 /* 20 // 与第i+1~n进行消元,低精度 21 for (k = i+1; k < n; ++k) { 22 double f = A[k][i] / A[i][i]; 23 for (j = i; j <= n; ++j) A[k][j] -= f * A[i][j];

OpenCV---高斯模糊(均值模糊的另一种)

匿名 (未验证) 提交于 2019-12-03 00:39:02
高斯分布: 高斯模糊的原理 一:图像产生高斯噪声循环代码实现(耗时) def clamp(pv):   #使我们的随机值在0-255之间 if pv > 255 : return 255 if pv < 0 : return 0 return pv import cv2 as cv import numpy as np def gaussian_noise(image): #对图像加上高斯噪声 h,w,c = image.shape for row in range(h):   #十分耗时 for col in range(w): s = np.random.normal(0,20,3 )  #产生3个随机值,符合正态分布,第一个参数是概率分布的均值,对应分布中心,,第二个是概率分布的标准差,越小越瘦高,第三个是输出的值个数 b = image[row,col, 0 ] #blue g = image[row,col, 1 ] #green r = image[row,col, 2 ] #red image[row,col, 0 ] = clamp(b+s[ 0 ]) image[row,col, 1 ] = clamp(g+s[ 1 ]) image[row,col, 2 ] = clamp(r+s[ 2 ]) cv.imshow( " noise image " ,image)

SIFT

匿名 (未验证) 提交于 2019-12-03 00:37:01
1. 图像尺度空间 在了解图像特征匹配前,需要清楚,两张照片之所以能匹配得上,是因为其特征点的相似度较高。 “ 图像尺度空间 ”。 “看”一张照片时,会从不同的“尺度”去观测照片,尺度越大,图像越模糊。 “ 尺度 ”就是二维高斯函数当中的σ值 ,一张照片与二维高斯函数卷积后得到很多张不同σ值的高斯图像,这就好比你用人眼从不同距离去观测那张照片。所有不同尺度下的图像,构成单个原始图像的 尺度空间 “ 图像尺度空间表达 ”就是图像在所有尺度下的描述。 尺度是自然客观存在的,不是主观创造的。 高斯卷积只是表现尺度空间的一种形式 。 2. ――高斯卷积 高斯核是唯一可以产生多尺度空间的核。在低通滤波中,高斯平滑滤波无论是时域还是频域都十分有效。我们都知道,高斯函数具有五个重要性质: (1)二维高斯具有旋转对称性; (2)高斯函数是 ; (3)高斯函数的 ; (4) ( ) (5)二维高斯滤波的计算量随滤波模板宽度成 。 L(x,y,σ) , I(x,y) 2 G(x,y,σ) 表达式 “尺度空间表达”,它们有什么关系呢? “尺度空间表达”指的是不同高斯核所平滑后的图片的不同表达 “看”上去的样子就不一样了。高斯核越大,图片“看”上去就越模糊。 那么,图片的模糊与找特征点有关系吗? 计算机没有主观意识去识别哪里是特征点, 它能做的,只是 分辨出变化率最快的点 RGB 0~255 ――降采样

生成对抗网络系列(0)――生成模型

匿名 (未验证) 提交于 2019-12-03 00:32:02
本小节算是GAN的预备篇,主要介绍目前几个主流的生成模型,以及他们各自的优势。现有的使用较多的生成模型主要有以下5个,他们的源代码如下: https://github.com/wiseodd/generative-models 这里给出的代码主要是CPU实现。不太适合我们现在要处理的任务,基于他们的代码,我改编出了GPU版,目前只实现了AE、VAE和部分GAN,代码会持续更新中… https://github.com/Cuiyirui/Generative-Model-with-pytorch-GPU 2.1 Auto-encoder 先来看Auto-Encoder也就是我们说的AE,它的主要思路是把输入的vector编码成code,再把code解码成vector. 其中的编码器和解码器部分一般是Neural Network,可以是简单的线型神经元,也可以是CNN。为了训练函数用p-范数做损失函数: L = ‖ x G ( z ) ‖ p L =‖ x G ( z ) ‖ p p取1就是我们熟悉的L1 loss,p取2就是L2 loss. 把NN换成简单的3层神经网络: 这里的图像编码是3位。用到的数据集主要是MNIST和我们自己的服装数据集。 我们先看MNIST上的例子 从上边的结果发现,随着训练次数的增加,生成的图像在逐渐变清晰。但我们随机给一个长度为3的变量作为编码时

独立成分分析 ( ICA ) 与主成分分析 ( PCA ) 的区别

匿名 (未验证) 提交于 2019-12-03 00:30:01
1.前言 书上写的是: 1. 主成分分析假设源信号间彼此非相关,独立成分分析假设源信号间彼此独立。 2. 主成分分析认为主元之间彼此正交,样本呈高斯分布; 独立成分分析则不要求样本呈高斯分布。 在利用最大化信息熵的方法进行独立成分分析的时候,需要为源信号假定一个概率密度分布函数g',进而找出使得g(Y)=g(Wx)的信息熵最大的变换W,即有Y=s。 我的问题是, 1. 这个概率密度分布函数怎么假定?在实际信号处理中怎么给出? 2. 如果我观测到信号呈高斯分布,取g'为高斯分布,那么ICA和PCA得到的结果会相同吗? 2.解析 不管是PCA还是ICA,都不需要对源信号的分布做具体的假设;如果观察到的信号为高斯,那么源信号也为高斯,此时PCA和ICA等价。下面稍作展开。 假设观察到的信号是n维随机变量 主成分分析(PCA)和独立成分分析(ICA)的目的都是找到一个方向,即一个n维向量 使得线性组合 的某种特征最大化。 2.1主成分分析 PCA PCA认为一个随机信号最有用的信息体包含在方差里 。为此我们需要找到一个方向 w1 ,使得随机信号x在该方向上的投影 w1(T)X 的方差最大化。接下来,我们在与 w1 正交的空间里到方向 w2 ,使得 w2(T)X 的方差最大,以此类推直到找到所有的n个方向 wn . 用这种方法我们最终可以得到一列不相关的随机变量 . 如果用矩阵的形式,记 W

图像质量检测方法方式

匿名 (未验证) 提交于 2019-12-03 00:18:01
图像质量检测方法方式 . 1、全、半参考方法 . 2、盲图像质量(Blind image quality, BIQ) . 3、机器学习的图像质量评价 (1)SVM + SVR (2)GGD . 4、基于概率模型的方法 大多采用多变量高斯分布描述概率分布. 在德克萨斯大学奥斯汀分校的Mittal 等 提出的 自然图像质量评价(Natural image quality evaluator, NIQE) 算法中, 无需利用人眼评分的失真图像进行训练, 在计算其局部MSCN 归一化图像后, 根据局部活性选择部分图像块作为训练数据, 以广义高斯模型拟合得到模型参数作为特征, 采用多变量高斯模型描述这些特征, 评价过程中利用待评价图像特征模型参数与预先建立的模型参数之间的距离来确定图像质量 基于韦伯分布提取自然图像统计特征, 并以多变量高斯分布描述它的概率分布 . 5、神经网络的方法 Kang 等采用 卷积神经网络(Convolutionalneural networks, CNN) 训练过程先采用受限波尔兹曼机(Restricted Boltzmann machine,RBM) 进行层间学习 , 再采用反向传递算法进行精细调整. 这两种算法的实验结果均明显优于其他无参考算法, 甚至在某些情况下优于全参 考算法中较好的VIF 原文:http://www.bubuk.com

数字图像的退化模型及原理

匿名 (未验证) 提交于 2019-12-03 00:18:01
图像复原的一般那过程:分析退化原因――建立退化模型――反映推演――恢复图像。 退化模型: 恢复模型: 现实中,造成图像退化的种类很多,常见的图像退化模型即点扩散函数(PSF)有如下情形: 1、线性移动退化 其中,d是退化函数的长度。实际情况中,如果线性运动的方向不是水平方向运动,可以类似求解。 2、高斯退化 其中,K为归一化常数,a为一个正常数,C为h(m,n)的圆形支持域。由高斯函数可知,高斯退化函数二维表达式可以分解为两个一维高斯退化函数的乘积。 3、散焦退化 其中,R是散焦半径。在信噪比比较高的情况下,在频域上可以观察到圆形的轨迹。 文章来源: 数字图像的退化模型及原理

绘制高斯隶属函数

匿名 (未验证) 提交于 2019-12-03 00:05:01
绘制高斯隶属函数 模糊理论 高斯型隶属函数 实现 模糊理论 模糊理论以连续隶属函数理论为基础。它可以分为五个分支:模糊数学,模糊系统,不确定性和信息,模糊决策,模糊逻辑与人工智能。 隶属函数是用于表示模糊集的数学工具。 它表示元素属于模糊集的“真实度”。 隶属函数的值介于0和1之间。这似乎是概率,但它是一个不同的概念。 它代表了一个程度, 高斯隶属函数是其隶属函数之一。 高斯型隶属函数 高斯型隶属函数( gaussian membership function)公式: 它不是高斯概率密度函数(gaussian probability density function): 实现 使用python来实现高斯型隶属函数: # python-高斯分布 # coding: utf-8 import numpy as np import matplotlib . pyplot as plt import math diff = 5 c1 = 1 c2 = 2 c3 = 3 sig = math . sqrt ( 1 ) x1 = np . linspace ( c1 - diff , c1 + diff , 500 ) x2 = np . linspace ( c2 - diff , c2 + diff , 500 ) x3 = np . linspace ( c3 - diff , c3 +

高斯进行激发态计算

匿名 (未验证) 提交于 2019-12-02 23:48:02
原理: 激发态: 原子 或分子吸收一定的能量后,电子被激发到较高 能级 但尚未 电离 的状态。 每个态都有各自的势能面,都是几何坐标的函数。 振子强度小于0.01可以认为跃迁禁阻 激发态和 基态 具有不同的 位能 曲线和平衡核间距。 激发态去活的途径有:①辐射跃迁(荧光或 磷光 )。②无辐射跃迁(系间窜越,内部转变)。③传能和猝灭(激发态分子将能量传递给另一基态分子并使其激发)。 计算需要: 7、用高斯做激发态计算: 方法:zindo(半经验,100原子)、cis组态相互作用(50原子)、含时方法(TDDFT,gs03的时候就可以考虑溶质的影响) Franck-condon规则:激发时核不动,垂直跃迁 PS:知道激发能,就可以得到波长 5、溶剂在激发态计算中是必须要考虑的,溶剂效应对激发态的影响比对基态更大。特别是溶剂对光谱的影响明显不可忽略,由于溶剂与溶质的基态和激发态的相互作用不同,造成能级发生不同程度的改变,故溶剂会使吸收峰红移或蓝移。溶剂方面,TDDFT可以已经可以比较好地处理了,和主流的PCM模型可以完美地结合,可以考虑非平衡溶剂效应和做state-specific计算来响应激发态密度。需要描述与溶质间的强相互作用的时候还可以用显示溶剂模型。有时候实际外环境比较复杂,比如蛋白质环境,此时可以用QMMM或更简单的背景电荷等方式将此效应表现出来。不过