GridSearchCV

匿名 (未验证) 提交于 2019-12-03 00:39:02

GridSearchCV 简介:

常用参数解读:

estimator:所使用的分类器,如estimator=RandomForestClassifier(min_samples_split=100,min_samples_leaf=20,max_depth=8,max_features=‘sqrt‘,random_state=10), 并且传入除需要确定最佳的参数之外的其他参数。每一个分类器都需要一个scoring参数,或者score方法。

param_grid:值为字典或者列表,即需要最优化的参数的取值,param_grid =param_test1,param_test1 = {‘n_estimators‘:range(10,71,10)}。

scoring :准确度评价标准,默认None,这时需要使用score函数;或者如scoring=‘roc_auc‘,根据所选模型不同,评价准则不同。字符串(函数名),或是可调用对象,需要其函数签名形如:scorer(estimator, X, y);如果是None,则使用estimator的误差估计函数。scoring参数选择如下:

参考地址:http://scikit-learn.org/stable/modules/model_evaluation.html



iid:默认True,为True时,默认为各个样本fold概率分布一致,误差估计为所有样本之和,而非各个fold的平均。
verbose:日志冗长度,int:冗长度,0:不输出训练过程,1:偶尔输出,>1:对每个子模型都输出。

pre_dispatch:指定总共分发的并行任务数。当n_jobs大于1时,数据将在每个运行点进行复制,这可能导致OOM,而设置pre_dispatch参数,则可以预先划分总共的job数量,使数据最多被复制pre_dispatch次。

常用方法:

grid.fit():运行网格搜索
grid_scores_:给出不同参数情况下的评价结果
best_params_:描述了已取得最佳结果的参数的组合
best_score_:成员提供优化过程期间观察到的最好的评分

使用案例:

param_test1 = { max_depth:list(range(3,10,1))                ,min_child_weight:list(range(1,6,2))               } gsearch1 = GridSearchCV(     estimator = XGBClassifier(                                 silent=1 ,#设置成1则没有运行信息输出,最好是设置为0.是否在运行升级时打印消息。                                 learning_rate= 0.1,# 如同学习率 #                                 max_depth=4,# 构建树的深度,越大越容易过拟合                                 colsample_bytree=1, # 生成树时进行的列采样                                 reg_lambda=4,  # 控制模型复杂度的权重值的L2正则化项参数,参数越大,模型越不容易过拟合。                                 objective= binary:logistic, #多分类的问题 指定学习任务和相应的学习目标                                 n_estimators=70, # 树的个数                                 ),                        param_grid = param_test1, scoring=roc_auc, iid=False, cv=5) gsearch1.fit(X,y) gsearch1.grid_scores_, gsearch1.best_params_, gsearch1.best_score_

GridSearchCV

原文:https://www.cnblogs.com/callyblog/p/9270888.html

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!