cross_val_score 交叉验证与 K折交叉验证,嗯都是抄来的,自己作个参考
因为sklearn cross_val_score 交叉验证,这个函数没有洗牌功能,添加K 折交叉验证,可以用来选择模型,也可以用来选择特征 sklearn.model_selection.cross_val_score(estimator, X, y=None, groups=None, scoring=None, cv=None, n_jobs=1, verbose=0, fit_params=None, pre_dispatch=‘2*n_jobs’) 这里的cv 可以用下面的kf 关于scoring 参数问题 如果两者都要求高,那就需要保证较高的F1 score 回归类(Regression)问题中 比较常用的是 'neg_mean_squared_error‘ 也就是 均方差回归损失 该统计参数是预测数据和原始数据对应点误差的平方和的均值 公式长这样,了解下就ok了 K折交叉验证:sklearn.model_selection.KFold(n_splits=3, shuffle=False, random_state=None) n_splits:表示划分几等份 shuffle:在每次划分时,是否进行洗牌 random_state:随机种子数 属性: ①get_n_splits(X=None, y=None, groups=None):获取参数n_splits的值