多变量分析

多重比较和多重比较陷阱

白昼怎懂夜的黑 提交于 2020-03-06 12:53:45
方差分析中的多重比较 1.当拒绝原假设时,表明μi(i=1,2,…,k)之间的差异是显著的,但μ1与μ2、μ1与μ3、…、μ1与μk、…、μk-1与μk之间究竟是哪两个均值不同呢? 这就需要做进一步的分析,所使用的方法就是 多重比较方法 (例如最小显著差异方法),它是通过对总体均值之间的配对比较来进步检验到底哪些均值之间存在差异。 2.方差分析中多重比较的作用是什么? 答:多重比较方法是通过对总体均值之间的配对比较来进步检验到底哪些均值之间存在差异。多重比较的方法有许多,常用的是由费希尔提出的最小显著差异方法(LSD)。 也可以说是 已知主效应显著 的情况下 看看具体是自变量的哪几个水平间差异显著 (因为方差分析一般是3个以上自变量水平间的比较,当然也可以做两水平的,但两水平不存在多重分析)。 多重比较又称事后检验,是紧接着方差分析后的分析步骤,当方差分析结果显示某变量主效应显著时,用多重比较进一步分析差异具体在该变量的哪个水平上。简单效应检验针对的是两个变量或多个变量间的交互作用,也是方差分析之后的步骤,当交互作用显著时,用简单效应检验考察某变量的效应在另一个变量的不同水平上的差异。 大概的理解是找出y除了μ1这个主效应之外其他相关μ指标。 多重比较陷阱 1.μ指标可能会有相互矛盾 2.还有可能出现过拟合的情况 未必能得出准确的结果 3.一开始就业务理解错误(那年杏花微雨

统计学-Week12

我的梦境 提交于 2020-01-21 05:34:00
一、回归分析 1.1 主题 一元线性回归: 相关关系、最小二乘法、拟合优度检测、显著性检验、回归预测、残差分析 多元线性回归: 多重共线性、变量选择与逐步回归 二、 一元线性回归 1.1 相关关系 三、 多元线性回归 来源: CSDN 作者: kwunkau 链接: https://blog.csdn.net/qq_35906568/article/details/104035201

回归分析|r^2|Se|变差|多重相关系数|决定系数|多重共线性|容忍度|VIF|forward selection|backward elimination|stepwise regression procedure|best-subset approach|回归方程的置信区间|预测区间|残差分析|虚拟变量

江枫思渺然 提交于 2019-12-02 06:44:06
应用统计学 - 回归分析 拟合度使用 r^2 和 Se 来检验。 显著性检验中,对于线性 model 使用 ANOVA ,对于单独的回归系数使用 t 检验。 最小二乘法、贝叶斯和最大似然都可用于求回归参数,最小二乘法是最小化残差平方和。 基于 model 影响变差的因素有随机误差和自变量 x 。 因为 R^2=SST/SSE ,所以取值在( 0,1 )。而 Adjusted R^2=MST/MSE ,其中 SST 自由度是 n-1 , SSR 自由度是 k ,则 SSE 自由度是 n-k-1 。 多重相关系数 (multiple correlation coefficient) 又称复相关系数是因变量与所有自变量之间的关系。而相关关系是两两之间的关系。 因为: T(n)=(f(1,n))^1/2 所以 多重共线性可能会误导结果,有可能变弱甚至变负。 下面情况暗示存在多重共线性, Model 显著但是单独的回归系数却不显著。 容忍度和 y 无关 变量数目变大,比如加入细节性分类,则误差变小。 可以使用如下方法确定变量种类: 向前是加入就不能删去。 向后是删去就不能加入。 逐步回归是向前向后相结合,一进一出。 最佳子集是 k 种因素可以组成 2^k 个子集,考虑所有组合方式,得到最佳的方式。 在确定了变量种类之后,可以使用 f 检验来查看是否显著, 对个别值的预测需要还原到原始分布