大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。
Jetbrains全系列IDE稳定放心使用
总第105篇
最近会开始一个新的系列,sklearn库中各模型的参数解释,本篇主要讲述最基础的LR模型。
模型参数详解
逻辑回归:
sklearn.linear_model.LogisticRegression(penalty='l2', dual=False,
tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1,
class_weight=None, random_state=None, solver='liblinear',
max_iter=100, multi_class='ovr', verbose=0, warm_start=False, n_jobs=1)
penalty
:正则化选择参数,参数可选值为l1和l2,分别对应l1正则化和l2正则化,默认是l2正则化。
调整该参数的目的主要是为了防止过拟合,一般penalty选择l2正则化就够啦,但是如果选择l2正则化发现依然过拟合,即预测效果还是很差的时候,就可以考虑l1正则化。如果模型的特征非常多,我们希望做一些特征选择(即把一些不重要的特征过滤掉),这个时候也可以考虑用l1正则化。
penalty参数的选择会影响我们损失函数优化算法的选择,即参数solver
的选择,如果是l2正则化,可选的优化算法 {‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’}都可以选择。但是如果penalty是L1正则化的话,就只能选择‘liblinear’了。这是因为L1正则化的损失函数不是连续可导的,而{‘newton-cg’, ‘lbfgs’,‘sag’}这三种优化算法时都需要损失函数的一阶或者二阶连续导数。而‘liblinear’并没有这个依赖。这几个优化方法在solver参数环节进行讲述。
dual
:用来指明是否将原问题改成他的对偶问题,对偶问题可以理解成相反问题,比如原问题是求解最大值的线性规划,那么他的对偶问题就是转化为求解最小值的线性规划,适用于样本较小的数据集,因样本小时,计算复杂度较低。
tol
:残差收敛条件,默认是0.0001,也就是只需要收敛的时候两步只差<0.0001就停止,可以设置更大或更小。(逻辑回归模型的损失函数是残差平方和)
C
:正则化系数,正则化强度的导数,必须是一个正数,值越小,正则化强度越大,即防止过拟合的程度更大。
fit_intercept
:是否将截距/方差加入到决策模型中,默认为True。
class_weight
:class_weight是很重要的一个参数,是用来调节正负样本比例的,默认是值为None,也就是正负样本的权重是一样的,你可以以dict的形式给模型传入任意你认为合适的权重比,也可以直接指定一个值“balanced”,模型会根据正负样本的绝对数量比来设定模型最后结果的权重比。
比如,有一数据集的正负样本绝对数量比为4:6,如果你给参数class_weight赋予balanced值,那么最后模型结果中,正负样本的权重比就会变成6:4。
random_state
:随机种子的设置,默认是None,如果设置了随机种子,那么每次使用的训练集和测试集都是一样的,这样不管你运行多少次,最后的准确率都是一样的;如果没有设置,那么每次都是不同的训练集和测试集,最后得出的准确率也是不一样的。
solver
:用来指明损失函数的优化方法,默认是‘liblinear’方法,sklearn自带了如下几种:
参数值 | 优化方法 |
---|---|
liblinear | 使用了坐标轴下降法来迭代优化损失函数 |
lbfgs | 拟牛顿法的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数 |
newton-cg | 也是牛顿法法的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数 |
sag | 即随机平均梯度下降,是梯度下降法的变种,是一种线性收敛算法,和普通梯度下降法的区别是每次迭代仅仅用一部分的样本来计算梯度,适合于样本数据多的时候 |
newton-cg, lbfgs和sag这三种优化算法时都需要损失函数的一阶或者二阶连续导数,因此不能用于没有连续导数的L1正则化,只能用于L2正则化。而liblinear对L1正则化和L2正则化都适用。同时,因sag每次仅仅使用了部分样本进行梯度迭代,所以当数据量较少时不宜选用,而当数据量很大时,为了速度,sag是第一选择。
max_iter
:算法收敛的最大迭代次数,即求取损失函数最小值的迭代次数,默认是100,multi_class
:分类方法参数选择,‘ovr’和‘multinomial’两个值可以选择,默认值为‘ovr’,如果分类问题是二分类问题,那么这两个参数的效果是一样的,主要体现在多分类问题上。
对于多分类问题,”ovr”分类方法是:针对每一类别进行判断时,都会把这个分类问题简化为是/非两类问题;而‘multinomial’是从众多类别中选出两个类别,对这两个类别进行判断,待判断完成后,再从剩下的类别中再选出两类进行判断,直至最后判断完成。
verbose
:英文意思是”冗余“,就是会输出一些模型运算过程中的东西(任务进程),默认是False,也就是不需要输出一些不重要的计算过程。
warm_start
:是否使用上次的模型结果作为初始化,默认是False,表示不使用。
n_jobs
:并行运算数量(核的数量),默认为1,如果设置为-1,则表示将电脑的cpu全部用上。
模型对象
coef_
:返回各特征的系数,绝对值大小可以理解成特征重要性intercept_
:返回模型的截距n_iter_
:模型迭代次数
模型方法
decision_function(X)
:返回决策函数值(比如svm中的决策距离)predict_proba(X)
:返回每个类别的概率值(有几类就返回几列值)predict_log_proba(X)
:返回概率值的log值(即将概率取对数)predict(X)
:返回预测结果值(0/1)score(X, y=None)
:返回函数get_params(deep=True)
:返回估计器的参数set_params(**params)
:为估计器设置参数
你还可以看:
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/182515.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...