Rho

[Python][pmdarima] 季节性ARIMA模型学习

大憨熊 提交于 2020-10-03 03:03:57
[Python][pmdarima] ARIMA时间序列模型学习 背景 1、建模步骤 2、季节性ARIMA模型 一、模块导入及数据读取 1、模块及数据 2、季节性分析 二、平稳性检验 1、Augmented Dickey-Fuller Test(ADF检验) 2、Python实现 三、序列平稳化 差分法 四、白噪声检验 1、白噪声定义 2、Ljung-Box检验 3、Python实现 五、时间序列定阶 六、构建ARIMA模型及预测 1、构建模型 2、模型识别 3、需求预测 3、结果评估 七、小结 背景 前段时间参与了一个快消行业需求预测的项目。其中,用到了移动平均法、ARIMA、Xgboost等方法进行预测,现在打算总结一下ARIMA。 因为项目的销售数据属于私密数据,这里用网上找的一份案例数据用于展示。 构建ARIMA模型可以用到statsmodels库和pmdarima库。我这里用的是pmdarima库,这个库有一个优点是能够自动地对ARIMA模型的参数进行自动确定。 1、建模步骤 2、季节性ARIMA模型 A R I M A ( p , d , q ) ( P , D , Q ) m ARIMA (p,d,q) (P,D,Q)_m A R I M A ( p , d , q ) ( P , D , Q ) m ​ 该模型需要提供的参数有如下两类: (1)趋势参数 p

HEOI2020 退役记 & 退役划水(3)

∥☆過路亽.° 提交于 2020-10-01 00:07:36
快开学了。再咕就真没时间写了。 赶上$NOI$,然后又赶上其它一大堆事情,突然感慨就涌上来了。 说是退役记,其实大概就是发牢骚吧。 所以含有不少负面情绪,慎读。 我可警告完了啊,别让我坏了你心情( 当个笑话看吧。 下面这些一部分内容是省选结束后那几天写的,可能有点和现在不匹配,不要在意细节。 我多希望这个标题只是我在$fake$啊。。。 $Day -4:$ 本来在快乐的刷专题,突然$gzh$告诉我: 啊,啥,$HEOI$没了? 当时半信半不信的吧心态没什么波动。 过了大约两个小时全机房都知道了。其实还是不算太慌的。 回宿舍的基本还在调侃这事,啊退役了退役了,好像是笑着说出来的。 然而晚上就没有打题了,去uoj搞那个乱搞杯赛研究各种耗时间的题了。 晚上回宿舍突然想了不少,但貌似看的还挺开。 $Day-3:$ 计算几何专题。人都傻了。 然后早上教练认同了$HEOI$没了的事情。 然后$luogu$上$*ainy\ Chen$大神开始为没有省选而开心(联赛分的确不低) 然后被我们一顿爆怼,后来被他自己的同学一顿爆怼。 为了喷他所有人都把$luoguID$中的$hzoi$前缀删掉了。 这货来了一句: 你以为你真的能翻盘? 早饭路上: $akt:$迪哥为啥看他们反应都挺激动的为啥你都没有不开心啊。 我:是吗?我不知道啊。 的确不知道为什么心态没有特别崩。但当然没有不开心是不可能的。

图像如函数

本秂侑毒 提交于 2020-09-29 20:27:59
图像如函数 图像分类 完美图像 完美图像(perfect image)是连续图形,完美图像由一个物理过程所产生。 将这个物理过程用I所表示,他们代表了从平面上的点到一个数字的映射,即 I : R 2 → R I: R^2\rightarrow R I : R 2 → R Remark: 0 < I ( ⋅ ) < ∞ 0<I(\cdot)<\infty 0 < I ( ⋅ ) < ∞ Remark: 抽象后我们可以将定义域看作超平面上的点,其维度可以超过2 。如此,哦我们可以将它们定义成一个映射: I : R k → R I: R^k \rightarrow R I : R k → R 由所经受的物理过程所决定 Remark: 完美图像仅在无法取样的时候存在抽象化。 例子:朗伯模型(Lambertian Image) 朗伯模型是一个经典的漫反射模型。朗博模型中光的反射量由入射角的余弦角所决定。 考虑一个点 x ∈ R 3 x \in R^3 x ∈ R 3 在朗伯表面上,其对此表面的法向量 n ( x ) n(x) n ( x ) 。入射角的方向是 l ( x ) l(x) l ( x ) 。 此时反射可以写作: R ( x ) = ρ l ( x ) T n ( x ) R(x) = \rho l(x)^Tn(x) R ( x ) = ρ l ( x ) T n ( x ) 其中

机器学习排序算法:RankNet to LambdaRank to LambdaMART

半腔热情 提交于 2020-09-27 04:47:01
使用机器学习排序算法LambdaMART有一段时间了,但一直没有真正弄清楚算法中的所有细节。 学习过程中细读了两篇不错的博文,推荐给大家: 梯度提升树(GBDT)原理小结 徐博From RankNet to LambdaRank to LambdaMART: An Overview 但经过一番搜寻之后发现,目前网上并没有一篇透彻讲解该算法的文章,所以希望这篇文章能够达到此目的。 本文主要参考微软研究院2010年发表的文章 From RankNet to LambdaRank to LambdaMART: An Overview $^1$,并结合自己的理解,试图将RankNet、LambdaRank和LambdaMART这三种算法的所有算法细节讲解透彻。 1. 概述 RankNet、LambdaRank和LambdaMART是三个关系非常紧密的机器学习排序算法。简而言之,RankNet是最基础,基于神经网络的排序算法;而LambdaRank在RankNet的基础上修改了梯度的计算方式,也即加入了lambda梯度;LambdaMART结合了lambda梯度和MART(另称为GBDT,梯度提升树)。这三种算法在工业界中应用广泛,在BAT等国内大厂和微软谷歌等世界互联网巨头内部都有大量应用,还曾经赢得“Yahoo!Learning To Rank Challenge(Track 1)

LTE Module User Documentation(翻译1)——背景、使用概述、基本的仿真程序和配置LTE模型参数

戏子无情 提交于 2020-08-18 08:37:16
LTE用户文档 (如有不当的地方,欢迎指正!) 1.背景 假定读者已经熟悉 ns-3 simulator ,能运行一般的仿真程序。如果不是的话,强烈推荐读者参考 [ns3tutorial] 。 2. 使用概述 ns-3 LTE 模块是一个软件库,允许仿真LTE网络,一些情况下还可以仿真核心网 Evolved Packet Core (EPC)。仿真过程通常涉及以下几个步骤: 定义仿真场景。 编写程序,重建期望的仿真场景拓扑/架构,通过使用 ns3::LteHelper API(定义在 src/lte/helper/lte-helper.h 中)访问 ns-3 LTE 模型库。 指定 objects 的配置参数,通过使用 input files(通过 ns3::ConfigStore)或直接在仿真程序中编写。 配置仿真器期望的输出。 运行仿真。 下面将通过实例解释这些步骤。 3. 基本的仿真程序 下面是一个最简单的仿真程序,只能允许 LTE-only 仿真(没有EPC)。 1. 初始模板: #include <ns3/core-module.h> #include <ns3/network-module.h> #include <ns3/mobility-module.h> #include <ns3/lte-module.h> using namespace ns3; int

图Lasso求逆协方差矩阵(Graphical Lasso for inverse covariance matrix)

泄露秘密 提交于 2020-08-18 04:53:02
图Lasso求逆协方差矩阵(Graphical Lasso for inverse covariance matrix) 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 1. 图Lasso方法的基本理论 2. 坐标下降算法 3. 图Lasso算法 4. MATLAB程序 数据见参考文献 [2] 4.1 方法一 demo.m load SP500 data = normlization(data); S = cov(data); %样本协方差 [X, W] = glasso_1(double(S), 0.5); %X:sigma^(-1), W:sigma [~, idx] = sort(info(:,3)); colormap gray imagesc(X(idx, idx) == 0) axis off %% Data Normalization function data = normlization(data) data = bsxfun(@minus, data, mean(data)); data = bsxfun(@rdivide, data, std(data)); end glasso_1.m function [X, W] = glasso_1(S, lambda) %% Graphical Lasso -

opencv进阶学习笔记11:cannny边缘检测,直线检测,圆检测

余生颓废 提交于 2020-08-17 05:24:51
基础版笔记传送门 python3+opencv学习笔记汇总目录(适合基础入门学习) 进阶版笔记目录链接: python+opencv进阶版学习笔记目录(适合有一定基础) cannny边缘检测 基础版边缘讲解链接: opencv学习笔记18:canny算子边缘检测原理及其函数使用 1cannny算法介绍 非极大值抑制:在获得梯度和方向,去除所有不是边界的点。实现方向:逐渐遍历像素点,判断当前像素点是否是周围像素点中具有相同方向梯度的最大值。是保留,不是则为0. cannny代码实现 edges=cv2.Canny(image,threshold1,threshold2) edges:处理结果 image:原始图像 threshold1:minVal threshold2:maxVal 如果想让边界细节更多,则把threshold1和threshold2设小些。 import numpy as np import cv2 as cv def edge_demo ( image ) : blurred = cv . GaussianBlur ( image , ( 3 , 3 ) , 0 ) #高斯模糊,降低噪声。canny对噪声比较敏感,也不能模糊太厉害,去掉了边缘信息。 gray = cv . cvtColor ( blurred , cv . COLOR_BGR2GRAY )

希腊字母读法及含义

六月ゝ 毕业季﹏ 提交于 2020-08-17 03:02:12
文章转载,参考 https://blog.csdn.net/chehec2010/article/details/90204622 序号 大写 小写 英语音标注音 英文 汉语名称 常用指代意义 1 Α α /'ælfə/ alpha 阿尔法 角度、系数、角加速度、第一个、电离度、转化率 2 Β β /'bi:tə/ 或 /'beɪtə/ beta 贝塔 磁通系数、角度、系数 3 Γ γ /'gæmə/ gamma 伽玛 电导系数、角度、比热容比 4 Δ δ /'deltə/ delta 得尔塔 变化量、焓变、熵变、屈光度、一元二次方程中的判别式、化学位移 5 Ε ε /'epsɪlɒn/ epsilon 艾普西隆 对数之基数、介电常数、电容率 6 Ζ ζ /'zi:tə/ zeta 泽塔 系数、方位角、阻抗、相对黏度 7 Η η /'i:tə/ eta 伊塔 迟滞系数、机械效率 8 Θ θ /'θi:tə/ theta 西塔 温度、角度 9 Ι ι /aɪ'əʊtə/ iota 约(yāo)塔 微小、一点 10 Κ κ /'kæpə/ kappa 卡帕 介质常数、绝热指数 11 ∧ λ /'læmdə/ lambda 拉姆达 波长、体积、导热系数 普朗克常数 12 Μ μ /mju:/ mu 谬 磁导率、微、动摩擦系(因)数、流体动力黏度、货币单位,莫比乌斯函数 13 Ν ν

Pytorch 基本操作

ぐ巨炮叔叔 提交于 2020-08-16 19:36:31
Pytorch 基础操作 主要是在读 深度学习入门之PyTorch 这本书记的笔记。强烈推荐这本书 1. 常用类numpy操作 torch.Tensor(numpy_tensor) torch.from_numpy(numpy_tensor) GPU上的Tensor不能直接转换为Numpy ndarry,要用 .cpu() 将其转换到CPU # 第一种方式是定义 cuda 数据类型 dtype = torch.cuda.FloatTensor # 定义默认 GPU 的 数据类型 gpu_tensor = torch.randn(10, 20).type(dtype) # 第二种方式更简单,推荐使用 gpu_tensor = torch.randn(10, 20).cuda(0) # 将 tensor 放到第一个 GPU 上 gpu_tensor = torch.randn(10, 20).cuda(1) # 将 tensor 放到第二个 GPU 上 # 将tensor放回CPU cpu_tensor = gpu_tenor.cpu() 得到tensor大小 .size() 得到tensor数据类型 .type() 得到tensor的维度 .dim() 得到tnsor的所有元素个数 .numel() 全1矩阵。数据类型是floatTensor torch.ones(n, m)

用SV写一个蒙哥马利模乘的参考模型

*爱你&永不变心* 提交于 2020-08-14 22:31:52
前言 往期推送过一个蒙哥马利算法的介绍,如果要实现蒙哥马利模乘的硬件模块,那么一个参考模型是必不可少的,这一期将利用SV实现一个简单的参考模型,这个参考模型可以直接用于功能仿真 根据以往推送中的运算流程进行建模 类的定义 class BN; rand bit [127:0] num [32:0]; string name; constraint c {num[32]==0;num[0][0]==1;}; function new(string name="A"); this.name = name; endfunction endclass : BN 定义一个大数的类,计算的位宽是4096,而使用的基是128bit也就是基为 \(2^{128}\) ,数组大小定义为33,用于处理数运算时的溢出。 大数显示 // BN display function void BN_display(bit flag=0); string s; s={s,name,":"}; if(flag==1) s={s,$sformatf("%h",num[32])}; for (int i=1; i<32+1; i++) begin s={s,$sformatf("%h",num[32-i])}; end s={s,"\n"}; $display(s); endfunction : BN_display