4. 集成学习(Ensemble Learning)Adaboost
1. 集成学习(Ensemble Learning)原理 2. 集成学习(Ensemble Learning)Bagging 3. 集成学习(Ensemble Learning)随机森林(Random Forest) 4. 集成学习(Ensemble Learning)Adaboost 5. 集成学习(Ensemble Learning)GBDT 6. 集成学习(Ensemble Learning)算法比较 7. 集成学习(Ensemble Learning)Stacking 1. 前言 前面我们已经详细的介绍了什么是集成学习,集成学习的种类有哪些,并且也介绍了集成学习里面相对比较简单的Bagging。今天我们开始涉及到集成学习里面比较难理解的Boosting中的Adaboost。 2. Boosting原理 Boosting算法的工作机制: 首先从训练集用初始权重训练出一个弱学习器1. 根据学习器1的学习误差率来更新训练样本的权重,使得之前弱学习器1学习 误差率高的训练样本点的权重变高 ,使得这些误差率高的点在后面的弱学习器2中得到更多的重视。 然后基于调整权重后的训练集来训练弱学习器2。 如此重复进行,直到弱学习器数达到事先指定的数目$T$。 最终将这$T$个弱学习器通过集合策略进行整合,得到最终的强学习器。 这里有几个相关概念: 学习误差率$e$ 学习器权重$\alpha$