sigma

步长(学习率learning rate)

匿名 (未验证) 提交于 2019-12-02 23:52:01
版权声明:署名,允许他人基于本文进行创作,且必须基于与原先许可协议相同的许可协议分发本文 ( Creative Commons ) 步长(学习率) 在进行梯度下降法的过程中,我们需要通过调整 η \eta η 学习率的值来调整参数每次要走的距离。适当的调整 η \eta η 可以更准确的找到 L L L 的最小值以及参数值。 下面需要注意调整步长 η \eta η (往下一步要走的距离)的大小: 不同大小的 η \eta η 可能会造成下面图中的情况 一种方法是将参数的变化与函数 L L L 的改变的情况可视化 当 η \eta η 太小,则L变化缓慢,对应下图中绿色线条 当 η \eta η 比较大,则可能上面图中跳出极小值点,找不到该点(相当于步子迈大了从坑上跨过去) 当 η \eta η 过大时,L将会越变越大,需要重新调整(此时相当于不仅跨过了坑还跨到山上去了) 自动调试 η \eta η 的方法 通常情况下,随着参数的更新会越来越小。(越来越接近目标,要调小步长) Adagrad 一般情况: w k + 1 ← w k η k g k , 其 中 g k 表 ʾ 第 k 个 ֵ 的 梯 度 。 w^{k+1} \leftarrow w^{k}-\eta^{k} g^{k},\\其中g^k表示第k个值的梯度。 w k + 1 ← w k η k g k , 其 中 g k

R语言基于ARMA-GARCH-VaR模型拟合和预测实证研究分析案例

匿名 (未验证) 提交于 2019-12-02 23:42:01
版权声明:本文为博主原创文章,未经博主允许不得转载。咨询链接:http://y0.cn/teradat 博文链接: https://blog.csdn.net/qq_19600291/article/details/89921719 本文显示了如何基于潜在的ARMA-GARCH过程(当然也涉及更广泛意义上的QRM)来拟合和预测风险价值(VaR)。 我们考虑使用\(t \)分布式创新的ARMA(1,1)-GARCH(1,1)过程。 模拟一条路径(用于说明目的)。 nu <- 3 # d.o.f. of the standardized distribution of Z_t fixed.p <- list(mu = 0, # our mu (intercept) ar1 = 0.5, # our phi_1 (AR(1) parameter of mu_t) ma1 = 0.3, # our theta_1 (MA(1) parameter of mu_t) omega = 4, # our alpha_0 (intercept) alpha1 = 0.4, # our alpha_1 (GARCH(1) parameter of sigma_t^2) beta1 = 0.2, # our beta_1 (GARCH(1) parameter of sigma_t^2) shape

MATLAB中绘制数据直方图的新函数histogram

匿名 (未验证) 提交于 2019-12-02 23:38:02
转自: http://blog.sciencenet.cn/blog-292361-1054195.html MATLAB中有命令hist()可以绘制直方图,纵坐标是频数,这与一些教科书中用纵轴表示频率的做法不一致,有些时候不便于使用。当然,使用者可以自己编写定制能够在纵轴绘出频率的直方图。在MATLAB中,增加了具有复杂功能的绘制数据直方图的新函数histogram(). 在MATLAB2015b测试环境下,MATLAB代码和图形如下: 一、绘制数据直方图的新函数histogram() 1、>> X = randn(1000,1); nbins = 25; h = histogram(x,nbins)%与hist相同 2、两个直方图叠加 >> x = randn(2000,1);y = 1 + randn(5000,1);h1 = histogram(x);hold on;h2 = histogram(y); 3、如果想显示频率,注意下图纵坐标 4、一个密度拟合例子 histogram(x,'Normalization','pdf') hold on y = -5:0.1:15;mu = 5;sigma = 2; f = exp(-(y-mu).^2./(2*sigma^2))./(sigma*sqrt(2*pi)); plot(y,f,'LineWidth',1.5) 文章来源

分布估计法+Matlab代码

北战南征 提交于 2019-12-02 23:20:49
算法原理 在遗传算法的基础上的改进 Matlab代码 clear; N = 4; %种群规模 M= 2; %变量个数 V0 = [-8,3;-2,9;0,-5;6,1]; %初始种群 K = 2; alpha = 0.3; %% [mu,sigma] = canShu(V0); %求均值方差 mark = []; for i = 1:50 p = f(V0); %求适应值 [mu,sigma] = update(V0,p,K,alpha,mu,sigma); V0 = sig2Mat(mu,sigma,N,M); mark = [mark,max(p)]; end plot(mark); %% function [mu,sigma] = canShu(V) mu = mean(V); sigma = std(V,1); %按照N的个数求标准差 end function y = f(x) %计算适应值,x为矩阵 y = x(:,1).^2-2*x(:,2)+5; end function [mu,sigma] = update(V,p,K,alpha,miu0,sigma0) %更新 [~,i] = sort(p,'descend'); mu = (1-alpha).*miu0+alpha.*(sum(V(i(1:K),:))-V(i(end),:)); sigma = (1

模糊数学

﹥>﹥吖頭↗ 提交于 2019-12-02 11:46:23
分解定理 另 A A A 是 U U U 上的模糊集,则 A = ⋃ α ∈ [ 0 , 1 ] A ~ α A=\bigcup_{\alpha\in[0,1]}\widetilde{A}_{\alpha} A = α ∈ [ 0 , 1 ] ⋃ ​ A α ​ 其中 ∪ \cup ∪ 代表标准模糊并集. μ A ( x ) = s u p α ∈ ( 0 , 1 ] ( α ∧ χ A α ( x ) ) \mu_A(x)=sup_{\alpha\in(0,1]}(\alpha\wedge\chi_{A_{\alpha}}(x)) μ A ​ ( x ) = s u p α ∈ ( 0 , 1 ] ​ ( α ∧ χ A α ​ ​ ( x ) ) μ A ( x ) = ∨ { λ , λ ∈ [ 0 , 1 ] , x ∈ A λ } \mu_A(x)=\vee \{\lambda,\lambda\in[0,1],x\in A_{\lambda}\} μ A ​ ( x ) = ∨ { λ , λ ∈ [ 0 , 1 ] , x ∈ A λ ​ } 数据标准化 设论域 X = { x 1 , x 2 , . . . , x n } X=\{x_1,x_2,...,x_n\} X = { x 1 ​ , x 2 ​ , . . . , x n ​ } 为被分类对象,每个对象又由

山东大学 机器学习 实验报告 实验1 python 模式分类 第二版 第二章 课后习题

南楼画角 提交于 2019-12-02 11:03:16
作业:P64,2.5节,4: 考虑上机题2中的3个类别,设p(wi)=1/3 (a)以下各测试点与上机练习2中各类别均值间的Mahalanobis距离分别是多少: (1,2,1)t,(5,3,2)t,(0,0,0)t,(1,0,0)t (b)对以上各点进行分类。 (c)若设p(w1)=0.8,p(w2)=p(w3)=0.1,再对以上测试点进行分类。 这道题的思路完全与P35的例1一样,所以会做例1,这道题就会做了。 我以以例题1的数据,测试了[0,0],[3,8]分类正确。 另外,我不会python的= =,这代码是憋出来的,至今为止依然不会用自带的矩阵乘法、转置balabala,只能自己实现……。 这两道题花了我二天半的时间(中途心态崩溃导致买买买导致错过deadline,我正在写博客的现在……qwq还在等老师的联系方式……老天保佑)。 事实证明,如果只为了赶快交作业的话,就算你没去上课,你也不用看书。 去做例1把,那里什么都有,如果遇到不懂的,就顺着它的思路往前去找,比如说书才买的我,看不懂例1,就从第二章开始找u、sigma的定义, 再盲猜例1中u、 sigma的计算方式 ,才看懂例1。 (a): 1、用式(40)计算出均值向量 2、用式(41)计算出协方差矩阵, 3、遍历测试点和样本数据 4、实现并获得(x-u)、(x-u).T 5、代入sqrt( (x-μ)'Σ^(-1)

GAN使用谱归一(spectral-normalization-gan)稳定训练——tensorflow应用

杀马特。学长 韩版系。学妹 提交于 2019-12-02 01:17:35
参考代码: https://github.com/christiancosgrove/pytorch-spectral-normalization-gan 参考代码: https://github.com/heykeetae/Self-Attention-GAN 参考代码: https://github.com/taki0112/Self-Attention-GAN-Tensorflow 谱归一就是限制W,使他趋于一个分布 谱归一代码部分,可以直接复制上去,调用见下个code: weight_init = tf.random_normal_initializer(mean=0.0, stddev=0.02) weight_regularizer = None def spectral_norm(w, iteration=1): w_shape = w.shape.as_list() w = tf.reshape(w, [-1, w_shape[-1]]) #print("w:",w.shape)#w: (48, 64) #w: (1024, 128) w: (2048, 256) u = tf.get_variable("u", [1, w_shape[-1]], initializer=tf.truncated_normal_initializer(), trainable

对数正态分布的随机数

不问归期 提交于 2019-12-01 09:55:12
一、功能 产生对数正态分布的随机数。 二、方法简介 对数正态分布的概率密度函数为 \[ f(x)=\left\{\begin{matrix} \frac{1}{x\sqrt{2\pi }\sigma }exp\left ( - \frac{(lnx-\mu )^{2}}{2\sigma ^{2}} \right ) & x> 0\\ 0 & x \leqslant 0 \end{matrix}\right. \] 对数正态分布的均值为 \(e^{\mu + \sigma ^{2} / 2}\) ,方差为 \((e^{\sigma ^{2}}-1)e^{2\mu + \sigma ^{2}}\) 。 首先产生正态分布的随机变量 \(y\) ,然后通过变换 \(x=e^{y}\) ,产生对数正态分布的随机变量 \(x\) ,具体方法如下: 产生正态分布的随机数 \(y\) ,即 \(u \sim N(\mu , \sigma )\) ; 计算 \(x=e^{y}\) 。 三、使用说明 是用C语言实现产生对数正态分布分布随机数的方法如下: /************************************ u ---对数正态分布的参数mu sigma ---对数正态分布的参数sigma s ---随机数种子 ************************************

瑞利分布的随机数

梦想与她 提交于 2019-12-01 08:47:44
一、功能 产生瑞利分布的随机数。 二、方法简介 瑞利分布的概率密度函数为 \[ f(x) = \frac{x}{\sigma ^{2} }e^{-x^{2}/2\sigma ^{2}} \ x > 0 \] 瑞利分布的均值为 \(\sigma \sqrt{\frac{\pi }{2}}\) ,方差为 \(\left ( 2 - \frac{\pi }{2} \right )\sigma ^{2}\) 。 首先用逆变换法产生参数 \(\beta = 2\) 的指数分布的随机变量 \(y\) ,其概率密度函数为 \(f(y) = \frac{1}{2} e^{-\frac{y}{2}}\) ;然后通过变换 \(x = \sigma \sqrt{y}\) ,产生瑞利分布的随机变量 \(x\) ,具体方法如下: 产生均匀分布的随机数 \(u\) ,即 \(u \sim U(0,1)\) ; 计算 \(y = - 2 \ ln(u)\) ; 计算 \(x = \sigma \sqrt{y}\) 。 三、使用说明 是用C语言实现产生瑞利分布随机数的方法如下: /************************************ sigma ---瑞利分布的参数sigma seed ---随机数种子 ************************************/

极大似然小结

强颜欢笑 提交于 2019-12-01 07:29:36
在机器学习中,我们经常要利用极大似然法近似数据整体的分布,本篇文章通过介绍极大似然法及其一些性质,旨在深入浅出地解释清楚极大似然法。 0. 贝叶斯概率 首先看一下经典的贝叶斯公式: \[ p(Y|X)=\frac{p(X|Y)p(Y)}{p(X)} \] 其中, \(p(Y)\) 称为先验概率( \(prior\) ),即根据先验知识得出的关于变量 \(Y\) 的分布, \(p(X|Y)\) 称为似然函数( \(likelihood\) ), \(p(X)\) 为变量 \(X\) 的概率, \(p(Y|X)\) 称之为条件概率(给定变量 \(X\) 的情况下 \(Y\) 的概率, \(posterior\) ,后验概率)。 1. 似然函数 似然,即可能性;顾名思义,则似然函数就是关于可能性的函数了。在统计学中,它表示了模型参数的似然性,即作为统计模型中参数的函数。一般形式如下: \[ L(\omega)=p(D | \omega) = p(x_1, x_2, \cdots ,x_n| \omega) \] 其中, \(D\) 表示样本集 \(\{x_1,x_2,\cdots, x_n\}\) ,   \(\omega\) 表示参数向量。 似然函数表示了在不同的参数向量 \(\omega\) 下,观测数据出现的可能性的大小,它是参数向量 \(\omega\) 的函数。在某种意义上