sklean学习之LogisticRegression(逻辑斯蒂回归分类器)【使用方法】

匿名 (未验证) 提交于 2019-12-03 00:19:01

本文是根据sklean官方文档进行翻译和学习的,如果理解有误欢迎留言指正,谢谢。

参考地址:

http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html#

sklearn.linear_model.LogisticRegression

sklearn.linear_model.LogisticRegression

sklearn.linear_model.LogisticRegression(penalty=’l2’dual=Falsetol=0.0001C=1.0fit_intercept=Trueintercept_scaling=1class_weight=Nonerandom_state=Nonesolver=’liblinear’max_iter=100multi_class=’ovr’verbose=0warm_start=Falsen_jobs=1)[source]

Parameters:

penalty

dual

对偶式或者原始式. dual=False

tol

停止时能接受的容差

C

fit_intercept

Specifies if a constant (a.k.a. bias or intercept) should be added to the decision function.


intercept_scaling

class_weight

.

random_state

solver

默认: ‘liblinear’ 算法在优化问题中使用.


max_iter

multi_class

Multiclass选项可以设置为 ‘ovr’ 或者 ‘multinomial’. 如果设置为 ‘ovr’, 那么每个label就对应一个二分类问题. 否则最小损失为符合整个概率分布的多项损失,不支持liblinear 算法

verbose

详细内容,可以理解为进度条。对liblinear 和 lbfgs 算法可以设置verbose 为任意正数.

warm_start

如果设置为 True, 直接. 不适合liblinear算法

n_jobs

``solver``设置为‘liblinear’ 时,不管‘multi_class’ 是否指定,这个参数将被忽略。 如果在值为 -1, 那么将使用所有的核数

Attributes:

coef_

如果是二分类问题则coef_

intercept_

如果fit_intercept设置为 False, 那么 intercept就设置为0.如果是二分类问题则intercept_是一维的

n_iter_


方法

decision_function(X)预测样本的置信分数
densify()
fit
get_params([deep])
predict(X)
predict_log_proba(X)
predict_proba(X)
score
set_params(**params)
sparsify()
fit(Xysample_weight=None)
Parameters:

X

n_samples表示样本数量 ,n_features表示特征数量.

y

相对于 X.的目标向量

sample_weight

Returns:

self

Returns self.


标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!