【机器学习面试题】——集成学习
文章目录 1. 什么是集成学习算法? 2. 集成学习主要有哪几种框架? 3. 简单介绍一下bagging,常用bagging算法有哪些? 4. 简单介绍一下boosting,常用boosting算法有哪些? 5. boosting思想的数学表达式是什么? 6. 简单介绍一下stacking,常用stacking算法有哪些? 7. 你意识到你的模型受到低偏差和高方差问题的困扰,应该使用哪种算法来解决问题呢?为什么? 8. 常用的基分类器是什么? 9. 可否将随机森林中的基分类器,由决策树替换为线性分类器或K-近邻?请解释为什么? 1. 什么是集成学习算法? 集成学习算法是一种优化手段或者策略 ,不算是一种机器学习算法。 集成方法是由多个较弱的模型集成模型组,一般的弱分类器可以是决策树,SVM,KNN等构成。其中的模型可以单独进行训练,并且它们的预测能以某种方式结合起来去做出一个总体预测。 该算法主要的问题是要找出哪些较弱的模型可以结合起来,以及如何结合的方法。 2. 集成学习主要有哪几种框架? 集成学习从集成思想的架构分为Bagging,Boosting,Stacking三种。 3. 简单介绍一下bagging,常用bagging算法有哪些? Bagging 多次采样,训练多个分类器,集体投票,旨在减小方差 , 基于数据 随机重抽样 的分类器构建方法