Rho

协方差,皮尔逊相关性,卡方检验

纵饮孤独 提交于 2020-05-02 08:35:38
1、协方差 协方差 (Covariance)在 概率论 和 统计学 中用于衡量两个变量的总体 误差 。而 方差 是协方差的一种特殊情况,即当两个变量是相同的情况。 期望值 分别为 与 的两个具有有限二阶 矩 的 实数 随机变量 X 与 Y 之间的 协方差 定义为: 协方差表示的是两个变量的总体的 误差 ,这与只表示一个变量误差的 方差 不同。 如果两个 变量 的变化趋势一致,也就是说如果其中一个大于自身的期望值,另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值。 如果两个变量的变化趋势相反,即其中一个大于自身的期望值,另外一个却小于自身的期望值,那么两个变量之间的协方差就是负值。 2、 两个变量之间的皮尔逊相关系数定义为两个变量之间的 协方差 和 标准差 的商: 上式定义了 总体 相关系数,常用希腊小写字母 ρ (rho) 作为代表符号。估算 样本 的协方差和标准差,可得到 样本相关系数 (样本皮尔逊系数),常用英文小写字母 r 代表: 数据标准化之后,(服从标准正太分布的话)夹角余弦,皮尔逊相关度是一样的 3、卡方检验 这个还不是太明白数学意义,这是怎么来的,为啥这么算???,而且没实际使用过。 具体介绍参考这篇博客 https://blog.csdn.net/bitcarmanlee/article/details/52279907 参考资料: https:/

(四)蒙特卡洛方法

不问归期 提交于 2020-05-01 10:46:12
(for pursue, do accumulation) 个人笔记,纯属佛系分享,如有错误,万望赐教。   蒙特卡洛(Monte Carlo, MC)方法是一种不基于模型的方法。它不需要具有完备的环境知识,只要求具备经验,即来自于真实的或模拟的环境交互过程中的样本序列 \(\{\mathcal{S},\mathcal{A},\mathcal{R}\}\) 。   同时,MC方法是基于平均采样回报来解决强化学习问题,只针对episodic tasks。 1. 预备知识 1.1 MC预测   MC方法是根据经验进行估计,即对访问该状态后观测到的回报求均值,随着观测到的回报越来越多,均值会逐渐收敛于期望值。   MC方法又可以分为首次访问型MC方法(first-visit MC method)和每次访问型MC方法(every-visit MC method):    首次访问型MC方法 用首次访问状态 \(s\) 得到的回报均值估计 \(v_\pi(s)\) ;    每次访问型MC方法 用所有访问状态 \(s\) 得到的回报均值估计 \(v_\pi(s)\) 。   根据大数定律(law of large numbers),当对 \(s\) 的访问次数趋向无穷时,两种方法的估计值都会收敛于 \(v_\pi(s)\) 。   MC方法没有完备的环境模型,因此,将对状态的访问改为对“状态

(四)蒙特卡洛方法

落花浮王杯 提交于 2020-05-01 08:35:31
(for pursue, do accumulation) 个人笔记,纯属佛系分享,如有错误,万望赐教。   蒙特卡洛(Monte Carlo, MC)方法是一种不基于模型的方法。它不需要具有完备的环境知识,只要求具备经验,即来自于真实的或模拟的环境交互过程中的样本序列 \(\{\mathcal{S},\mathcal{A},\mathcal{R}\}\) 。   同时,MC方法是基于平均采样回报来解决强化学习问题,只针对episodic tasks。 1. 预备知识 1.1 MC预测   MC方法是根据经验进行估计,即对访问该状态后观测到的回报求均值,随着观测到的回报越来越多,均值会逐渐收敛于期望值。   MC方法又可以分为首次访问型MC方法(first-visit MC method)和每次访问型MC方法(every-visit MC method):    首次访问型MC方法 用首次访问状态 \(s\) 得到的回报均值估计 \(v_\pi(s)\) ;    每次访问型MC方法 用所有访问状态 \(s\) 得到的回报均值估计 \(v_\pi(s)\) 。   根据大数定律(law of large numbers),当对 \(s\) 的访问次数趋向无穷时,两种方法的估计值都会收敛于 \(v_\pi(s)\) 。   MC方法没有完备的环境模型,因此,将对状态的访问改为对“状态

[Ynoi2015]此时此刻的光辉

旧时模样 提交于 2020-04-30 04:23:45
题目大意: 给定一个序列,每次询问一段区间的数的乘积的约数个数。 解题思路: 在太阳西斜的这个世界里,置身天上之森。等这场战争结束之后,不归之人与望眼欲穿的众人, 人人本着正义之名,长存不灭的过去、逐渐消逝的未来。我回来了,纵使日薄西山,即便看不到未来,此时此刻的光辉,盼君勿忘。————世界上最幸福的女孩 我永远喜欢珂朵莉。 --- \(10^9\)以内的数最多有10个 不同的 质因子。 考虑对其质因数分解。 由于值域范围过大,考虑使用Pollard-Rho算法。 这里普通的Pollard-Rho算法可能会TLE。如果你的代码能通过模板题,那基本上没问题( 窝反正直接把以前写的板子拉过来然后调了调参 )。 之后,你就会得到最多\(10n\)个不同的质因数。对其进行离散化,开桶记录。 然后上莫队,对于每次指针的偏移,把它所有的质因数加到桶里,同时维护约数个数即可。 这部分时间复杂度\(O(10n\sqrt n)\),加上上面的质因数分解的玄学期望复杂度,只能获得82分的好成绩。 --- 我们考虑把每个数\(1000\)以内的质因子先取出来(\(1000\)以内共168个质数),然后,对其做前缀和,记录前缀的出现次数。 然后,由于\(1001^3>10^9\),所以每个数剩下最多不超过2个质因子。这部分用Pollard_Rho找即可。 然后莫队的时候,对于前面168个质数就可以不用维护

【OI备忘录】dalao博文收藏夹

放肆的年华 提交于 2020-04-29 22:33:50
【dalao学习笔记总览】 【数学】 数论分块: 数论分块 矩阵树定理Matrix_Tree: 矩阵树Matrix-Tree定理与行列式 杨氏矩阵: 杨氏矩阵和钩子公式 Hall定理: Hall定理学习小记 容斥原理和子集枚举: 专题:有关容斥原理和子集枚举的一些问题 数学期望: 数学1——概率与数学期望 Miller_Robin && Pollard-Rho: 大数质因解:浅谈Miller-Rabin和Pollard-Rho算法 盒子和球: 当小球遇上盒子 FFT: FFT 【DP】 树形dp: 树形Dp入门与例题 四边形不等式: 【教程】四边形不等式学习笔记 背包九讲加强版: 背包九讲——全篇详细理解与代码实现 总结: 【DP专辑】ACM动态规划总结 【数据结构】 树状数组: 高级树状数组——区间修改区间查询、二维树状数组 主席树: 【算法学习】主席树入门 可持久化线段树 (主席树)hdu2665 Kth number 分块 「分块」数列分块入门1 – 9 by hzwer zkw线段树: zkw线段树详解 线段树的扩展之浅谈zkw线段树 树剖: 树链剖分详解 【算法】 粒子群优化: 粒子群 模拟退火: 浅谈玄学算法——模拟退火 莫队算法 莫队算法——大米饼 约瑟夫环问题: 约瑟夫环问题 单调队列: [整理] 单调队列题目整理 几何距离: 曼哈顿距离与切比雪夫距离以及转化

[总结]2020年2月 OI学习/刷题记录

旧城冷巷雨未停 提交于 2020-04-24 17:04:54
2020/2/1 LibreOJ #2098. 「CQOI2015」多项式 数论+高精度 [POJ 2411 Mondriaan's Dream](Mondriaan's Dream) 插头DP HDU 1565 方格取数(1) 状压DP HDU 2167 Pebbles 插头DP Luogu 「ACOI2020」Assassination Classroom OI 2020 30min 0+0+0+100+0+0 Luogu P6044 「ACOI2020」惊吓路径 倍增 HDU 1693 Eat the Trees 插头DP 2020/2/2 LibreOJ #2099. 「CQOI2015」标识设计 插头DP+离散化 LibreOJ #2100. 「TJOI2015」线性代数 最小割 LibreOJ #2101. 「TJOI2015」组合数学 Dilworth定理+DP LibreOJ #2103. 「TJOI2015」旅游 LCT LibreOJ #2104. 「TJOI2015」棋盘 DP+矩阵快速幂 Codeforces Round #616 (Div. 1) 1h A rk784 2020/2/3 LibreOJ #2102. 「TJOI2015」弦论 SAM LibreOJ #2106. 「JLOI2015」有意义的字符串 数论+矩阵快速幂 Luogu EA的练习赛

【人体姿态估计2】Real-time Multi-person 2d pose estimation using part affinity fields_2017

佐手、 提交于 2020-04-06 11:12:03
文章目录 1、Introduction 2、Method 2.1 Simultaneous Detection and Association 2.2 Confidence Maps for part detection 2.3 Part Affinity Fields for Part Association 2.4 Multi-person parsing using PAFs 3、 Results 3.1 MPII 作者视频讲解: https://www.bilibili.com/video/av40510835/ 源码地址: https://github.com/ZheC/Realtime_Multi-Person_Pose_Estimation 论文地址: https://arxiv.org/abs/1611.08050 源码讲解博客地址 pytorch代码地址1: https://github.com/Hzzone/pytorch-openpose pytorch代码地址2: https://github.com/tensorboy/pytorch_Realtime_Multi-Person_Pose_Estimation pytorch2讲解博客: https://www.cnblogs.com/demian/p/8988396.html 亮点:

keras中的优化器(optimizer)

删除回忆录丶 提交于 2019-12-26 18:34:56
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 名称 描述 参数 备注 SGD 随机梯度下降法,支持动量参数,支持学习衰减率,支持Nesterov动量 lr:大或等于0的浮点数,学习率 momentum:大或等于0的浮点数,动量参数 decay:大或等于0的浮点数,每次更新后的学习率衰减值 nesterov:布尔值,确定是否使用Nesterov动量 Adadelta lr:大或等于0的浮点数,学习率 rho:大或等于0的浮点数 epsilon:大或等于0的小浮点数,防止除0错误 建议保持优化器的默认参数不变 Adagrad lr:大或等于0的浮点数,学习率 epsilon:大或等于0的小浮点数,防止除0错误 Adam lr:大或等于0的浮点数,学习率 beta_1/beta_2:浮点数, 0<beta<1,通常很接近1 epsilon:大或等于0的小浮点数,防止除0错误 该优化器的默认值来源于参考文献 Adamax Adamax优化器来自于Adam的论文的Section7,该方法是基于无穷范数的Adam方法的变体。 lr:大或等于0的浮点数,学习率 beta_1/beta_2:浮点数, 0<beta<1,通常很接近1 epsilon:大或等于0的小浮点数,防止除0错误 默认参数由论文提供 Ftrl Nadam Nesterov Adam optimizer: