大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。
Jetbrains全家桶1年46,售后保障稳定
使用sklearn
库可以很方便的实现各种基本的机器学习算法,例如今天说的逻辑斯谛回归(Logistic Regression),我在实现完之后,可能陷入代码太久,忘记基本的算法原理了,突然想不到coef_
和intercept_
具体是代表什么意思了,就是具体到公式中的哪个字母,虽然总体知道代表的是模型参数。
好尴尬,折腾了一会,终于弄明白了,记录下来,以说明自己 too young。
正文
我们使用 sklearn 官方的一个例子来作为说明,源码可以从这里下载,下面我截取其中一小段并做了一些修改:
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_blobs
from sklearn.linear_model import LogisticRegression
# 构造一些数据点
centers = [[-5, 0], [0, 1.5], [5, -1]]
X, y = make_blobs(n_samples=1000, centers=centers, random_state=40)
transformation = [[0.4, 0.2], [-0.4, 1.2]]
X = np.dot(X, transformation)
clf = LogisticRegression(solver='sag', max_iter=100, random_state=42, multi_class=multi_class).fit(X, y)
print clf.coef_
print clf.intercept_
输出如图:
可以看到clf.coef_
是一个3×2(n_class, n_features)
的矩阵,clf.intercept_
是一个1×3的矩阵(向量),那么这些到底是什么意思呢?
我们来回顾一下 Logistic 回归的模型:
h θ ( x ) = 1 1 + e ( − θ T x ) h_\theta(x) = \frac{1}{1+e^{(-\theta^Tx)}} hθ(x)=1+e(−θTx)1
其中 θ \theta θ 是模型参数,其实 θ T x \theta^Tx θTx 就是一个线性表达式,将这个表达式的结果再一次利用 Logistic 函数映射到 0~1 之间。
知道了这个,也就可以搞清楚那个clf.coef_
和clf.intercept_
了: clf.coef_
和clf.intercept_
就是 θ \theta θ ,下面我们来验证一下:
i = 100
print 1 / (1 + np.exp(-(np.dot(X[i].reshape(1, -1), cc.T) + clf.intercept_)))
# 正确的类别
print y[i]
print clf.predict_proba(X[i].reshape(1, -1))
print clf.predict_log_proba(X[i].reshape(1, -1))
输出结果:
可以看到结果是吻合的,说明我们的猜想是正确的。
END
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/203996.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...