大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。
Jetbrains全系列IDE稳定放心使用
Python中训练LR模型一般使用sklearn包,输出模型报告和其他机器学习方法一样。但从统计背景出发,想看更详细的报告,statsmodel包可以帮助实现。
1.训练模型
import statsmodels.api as sm
from statsmodels.stats.outliers_influence import variance_inflation_factor
#train样本上训练模型
y = trainData[y_name]
X = trainData[model_list]
X['intercept'] = [1] * X.shape[0]
LR = sm.Logit(y, X).fit()
2.模型报告
#LR自带的summary报告,直接输出到excel不方便
summary = LR.summary()
#查看VIF
X_m = np.matrix(X)
VIF_list = [variance_inflation_factor(X_m, i) for i in range(X_m.shape[1])]
#varname_list = [X.columns[i] for i in range(len(VIF_list))]
#计算标准化系数
X_new = X.drop(['intercept'],axis = 1)
X_new2 = X_new.apply(lambda x: (x - np.mean(x)) / np.std(x))
LR_N = sm.Logit(trainData[y_name], X_new2).fit()
#wald检验
wald_test = LR.wald_test_terms().table
#拼接report
model_rpt1 = pd.concat([LR.params,LR.pvalues,wald_test['statistic'],LR_N.params],sort = False,axis = 1)
model_rpt1.columns = ['params','pvals','wald','normal_params']
model_rpt1['VIF'] = VIF_list
model_rpt1.sort_values(['normal_params'],ascending = True,inplace = True)
model_rpt1.fillna(0,inplace = True)
#计算模型变量间的相关系数
corr = X.drop(['intercept'],axis = 1).corr()
corr2 = corr.reset_index()
3.其他
1.statsmodel训练模型过程不涉及筛选变量,所有送进去的模型变量都会参与拟合;
2.LR.predict(X_test) 可以给其他样本打分,其结果是p,而根据系数得到的结果是log(p/1-p)。
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/182541.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...