Representation
logistic函数定义为:g ( z ) = 1 1 + e − z g(z)=\frac{1}{1+e^{-z}} g ( z ) = 1 + e − z 1
logistic函数的图形为:
可以看到,当自变量取值0时,函数值为0.5,自变量趋向于正无穷和负无穷时函数值趋近于1和0。因此我们用下式表示对一个样本x x x 的预测,这也就是逻辑回归的模型,记住remember此模型公式 :
h θ ( x ) = g ( θ T x ) = 1 1 + e − θ T x h_\theta(x)=g({\theta^T}{x})=\frac{1}{1+e^{-{\theta^T}{x}}} h θ ( x ) = g ( θ T x ) = 1 + e − θ T x 1
P ( y = 1 ∣ x ; θ ) = h θ ( x ) P(y=1{\mid}{x};{\theta})=h_\theta(x) P ( y = 1 ∣ x ; θ ) = h θ ( x )
P ( y = 0 ∣ x ; θ ) = 1 − h θ ( x ) P(y=0{\mid}{x};{\theta})=1-h_\theta(x) P ( y = 0 ∣ x ; θ ) = 1 − h θ ( x )
将logistic函数得到的函数值认为是类别为1的概率,1减去这个值就是类别为0的概率。这两个概率可以写成一个式子来表示:
P ( y ∣ x ; θ ) = ( h θ ( x ) ) y ( 1 − h θ ( x ) ) 1 − y P(y{\mid}{x};{\theta})={(h_\theta(x))}^{y}{(1-h_\theta(x))}^{1-y} P ( y ∣ x ; θ ) = ( h θ ( x )) y ( 1 − h θ ( x )) 1 − y
不要被这个名字给混淆,这是一种分类而不是回归算法 。简单来讲,它通过把给定的数据输入进一个评定模型方程来预测一个事件发生的可能性。因此它又被称为逻辑回归模型。 因为它是预测可能性的,它的输出值介于0和1之间。
Evalution
对于线性回归模型,我们定义的代价函数是所有模型误差的平方和。理论上来说,我们也可以 对逻辑回归模型沿用这个定义,但是问题在于,当我们将模型带入到这样定义了的代价函数中时,我们得到的代价函数将是一个非凸函数(non-convex function)。
这意味着我们的代价函数有许多局部最小值,这将影响梯度下降算法寻找全局最小值。 此外,一个理解角度是为什么Logistic Regression不使用最小二乘做cost function呢?答案是各自的响应变量服从不同的概率分布。在Linear Regression中,前提假设是服从正态分布,而Logistic中的是服从二项分布的。 (为什么不服从正态?因为非0即1啊!)
因此我们重新定义参数的似然性来作为目标函数,然后学习得到使得这个似然性不断增大最终收敛时的参数θ \theta θ 。注意:统计学中常用的一种方法是最大似然估计(极大似然估计),即找到一组参数,使得在这组参数下,我们的数据的似然度(概率)越大。即似然性可以理解为概率的意思。
l ( θ ) = p ( Y ∣ X ; θ ) = ∏ i = 1 m p ( y ( i ) ∣ x ( i ) ; θ ) = ∏ i = 1 m ( h θ ( x ( i ) ) ) y ( i ) ( 1 − h θ ( x ( i ) ) ) 1 − y ( i ) l(\theta)=p(Y\mid{X};\theta)=\prod_{i=1}^{m}p(y^{(i)}{\mid}x^{(i)};\theta)=\prod_{i=1}^{m}{(h_\theta(x^{(i)}))^{y(i)}}{(1-h_\theta(x^{(i)}))^{1-y^{(i)}}} l ( θ ) = p ( Y ∣ X ; θ ) = ∏ i = 1 m p ( y ( i ) ∣ x ( i ) ; θ ) = ∏ i = 1 m ( h θ ( x ( i ) ) ) y ( i ) ( 1 − h θ ( x ( i ) ) ) 1 − y ( i )
经过上述分析,通过对数进一步将代价函数化简为,记住remember此代价函数 :
J ( θ ) = l o g ( l ( θ ) ) = ∑ i = 1 m y ( i ) l o g h θ ( x ( i ) ) + ( 1 − y ( i ) ) l o g ( 1 − h θ ( x ( i ) ) ) J(\theta)=log(l(\theta))=\sum_{i=1}^{m}y^{(i)}logh_\theta(x^{(i)})+(1-y^{(i)})log(1-h_\theta(x^{(i)})) J ( θ ) = l o g ( l ( θ )) = ∑ i = 1 m y ( i ) l o g h θ ( x ( i ) ) + ( 1 − y ( i ) ) l o g ( 1 − h θ ( x ( i ) ))
对偶问题 :相对于求解对数似然函数的最大值,我们当然可以将该目标转换为对偶问题,即求解代价函数 J ( θ ) = − l o g ( ℓ ( θ ) ) J(\theta)=-log(\ell(\theta)) J ( θ ) = − l o g ( ℓ ( θ )) 的最小值。因此,我们定义logistic回归的代价函数为,注意此处的m分之1是用于抵消最大似然估计求极值时常会求导得到的值(但如果用梯度下降来优化则不用):
c o s t = J ( θ ) = − l o g ( ℓ ( θ ) ) = − 1 m ∑ i = 1 m ⟮ y ( i ) l o g ( g ( x ) ) + ( 1 − y ( i ) ) l o g ( 1 − g ( x ) ) ⟯ cost=J(\theta)=-log(\ell(\theta))=-\frac{1}{m} \sum^m_{i=1} \lgroup y^{(i)} log(g(x)) + (1-y^{(i)})log(1-g(x)) \rgroup cos t = J ( θ ) = − l o g ( ℓ ( θ )) = − m 1 ∑ i = 1 m ⟮ y ( i ) l o g ( g ( x )) + ( 1 − y ( i ) ) l o g ( 1 − g ( x ))⟯
从代价函数的直观表达上来看,当y ( i ) = 1 , g ( x ) = 1 y^{(i)}=1, g(x)=1 y ( i ) = 1 , g ( x ) = 1 时(预测类别和真实类别相同),J ( θ | x ( i ) ) = 0 J(\theta|x^{(i)})=0 J ( θ | x ( i ) ) = 0 ;当y ( i ) = 1 , g ( x ) → 0 y^{(i)}=1, g(x) \rightarrow 0 y ( i ) = 1 , g ( x ) → 0 时(预测类别和真实类别相反),J ( θ | x ( i ) ) → ∞ J(\theta|x^{(i)}) \rightarrow \infty J ( θ | x ( i ) ) → ∞ (注意对数函数前有个负号)。这意味着,当预测结果和真实结果越接近时,预测产生的代价越小,当预测结果和真实结果完全相反时,预测会产生很大的惩罚。该理论同样适用于y ( i ) = 0 y^{(i)}=0 y ( i ) = 0 的情况。
极大似然估计(最大似然估计) :最大似然估计就是估计未知参数的一种方法,最大似然估计(Maximum Likelihood Method)是建立在各样本间相互独立且样本满足随机抽样(可代表总体分布)下的估计方法,它的核心思想是如果现有样本可以代表总体,那么最大似然估计就是找到一组参数使得出现现有样本的可能性最大 ,即从统计学角度需要使得所有观测样本的联合概率最大化,又因为样本间是相互独立的,所以所有观测样本的联合概率可以写成各样本出现概率的连乘积 。注意:我们常写出似然函数(各个样本出现概率的连乘积,注意在机器学习中是P(X,Y)的连乘积,不是单P(X)或P(Y)!!!!!!!!,因为样本就是x与y的对)后,取对数,求导数最大值,从而得到要求的参数。XXX的极大似然估计,就是将XXX当作参数来进行估计,所以需要将各个样本出现概率的连乘积表示为该参数的函数! 具体见naive bayes中的例子,是P(X,Y)的连乘积,以前都搞错了,除非是没有类标记,那就用P(X)的连乘积,而在逻辑回归中用了P(Y|X),一定是某个地方简化了,还是从P(X,Y)得到的!!!!!!!!!!
所以我们使用极大似然估计的思想,得出代价函数 。
此外,最小二乘估计是最大似然估计的一种 ,有心的人还记得上面提到过的线性回归必须满足的条件,即误差项均服从正态分布的假设,如果线性回归记为 y = θ x + ϵ y=\theta x + \epsilon y = θ x + ϵ 的话,对于误差函数 ϵ \epsilon ϵ ,其服从正态分布ϵ ∼ N ( 0 , σ 2 ) \epsilon \sim N(0, \sigma^2) ϵ ∼ N ( 0 , σ 2 ) , 因此利用正态分布的性质,我们可以得到y − θ x ∼ N ( 0 , σ 2 ) ⇒ y ∼ N ( θ x , σ 2 ) y-\theta x \sim N(0, \sigma^2) \Rightarrow y \sim N(\theta x, \sigma^2) y − θ x ∼ N ( 0 , σ 2 ) ⇒ y ∼ N ( θ x , σ 2 ) 。 因此,根据极大似然估计的定义,我们要获得产生样本$$
y可能性最大的一组参数 可能性最大的一组参数 可能性最大的一组参数 \theta$$,因此,似然函数可写为:
Copy $$\ell(\theta)=\prod^m_{i=1} \frac{1}{\sqrt{2\pi}\sigma} exp(- \frac{(y^{(i)}-\theta x)^2}{2 \sigma})$$
与logistic回归类似,我们仍然将似然函数变换为对数似然函数求解极值,此时,
$$log(\ell(\theta))=mlog(\frac{1}{\sqrt{2\pi}}) + \sum^m_{i=1} -\frac{(y^{(i)}-\theta x)^2}{2 \sigma}$$
综上所述,要让
l o g ( ℓ ( θ ) ) log(\ell(\theta)) l o g ( ℓ ( θ )) 最大,我们需要让 ∑ i = 1 m ( y ( i ) − θ x ) 2 \sum^m_{i=1}(y^{(i)}-\theta x)^2 ∑ i = 1 m ( y ( i ) − θ x ) 2 最小(因为另外一项是固定值),该式即为我们经常提及的线性回归的代价函数 ,所以,线性回归的求解过程也利用最大似然估计的思想。
正则化(Regularization) :正则化不是只有逻辑回归存在,它是一个通用的算法和思想,所以会产生过拟合现象的算法都可以使用正则化来避免过拟合 。
过拟合现象是指对训练数据预测很好但是对未知数据预测不行的现象,通常都是因为模型过于复杂,或者训练数据太少。模型复杂体现在两个方面,一是参数过多,二是参数值过大。参数值过大会导致导数非常大,那么拟合的函数波动就会非常大,即下图所示,从左到右分别是欠拟合、拟合和过拟合。
从而,解决过拟合可以从两个方面入手,一是减少模型复杂度,一是增加训练集个数 。而正则化就是减少模型复杂度的一个方法。
由于模型的参数个数一般是由人为指定和调节的,所以正则化常常是用来限制模型参数值不要过大,也被称为惩罚项。一般是在目标函数(经验风险)中加上一个正则化项 。而这个正则化项一般会采用L1范数或者L2范数。
J ( θ ) = 1 2 m ( ∑ i = 1 m ( h ( x ( i ) ) – y ( i ) ) 2 + λ ∑ j = 1 n θ j 2 ) J(\theta) = \frac{1}{2m} \left( \sum_{i=1}^{m} (h(x^{(i)}) – y^{(i)})^2 + \lambda \sum_{j=1}^{n} \theta_j^2 \right) J ( θ ) = 2 m 1 ( ∑ i = 1 m ( h ( x ( i ) ) – y ( i ) ) 2 + λ ∑ j = 1 n θ j 2 )
注意这里并没有指定是逻辑回归的正则化情况,给出的是一个一般情况下的正则化 ,根据惯例,我们不对 θ 0 \theta_0 θ 0 进行惩罚,所以最后一项 j j j 从1开始。 其中λ \lambda λ 叫正则化参数(Regularization Parameter)。如果正则化参数太大,则会把所有参数最小化,导致近似直线,造成欠拟合。
范数:向量的范数可以理解为向量的长度、或向量到零点的距离、或相应两点距离。
L1会趋向于产生少量的特征,而其他的特征都是0,而L2会选择更多的特征,这些特征都会接近于0。L1在特征选择时候非常有用,而L2就只是一种规则化而已 。
越小的参数说明模型越简单 :过拟合的,拟合会经过曲面的每个点,也就是说在较小的区间里面可能会有较大的曲率,这里的导数就是很大,线性模型里面的权值就是导数,所以越小的参数说明模型越简单。
L1范数 :∥ x ∥ 1 \Vert x \Vert_1 ∥ x ∥ 1 ,表示为向量中各个元素绝对值之和
当采用梯度下降方式来优化目标函数时,对目标函数进行求导,正则化项导致的梯度变化当θ j \theta_j θ j 大于0时取1,当θ j \theta_j θ j 小于0时取-1。(因为绝对值求导后变成1或-1)
因此当θ j \theta_j θ j 大于0的时候,θ j \theta_j θ j 会减去一个正数,导致θ j \theta_j θ j 减小,而当θ j \theta_j θ j 小于0的时候,θ j \theta_j θ j 会减去一个负数,导致θ j \theta_j θ j 又变大,因此这个正则项会导致参数θ j \theta_j θ j 取值趋近于0,也就是为什么L1正则能够使权重稀疏 ,这样参数值就受到控制会趋近于0,得到稀疏解。L1正则还被称为 Lasso regularization。
L2范数 :∥ x ∥ 2 \Vert x \Vert_2 ∥ x ∥ 2 ,表示为向量中各个元素的平方和然后求平方根 。 当采用梯度下降方式来优化目标函数时,对目标函数进行求导,得到梯度变化为∂ Φ ( θ ) ∂ θ j = 2 θ j \frac{\partial \Phi(\theta)}{\partial \theta_j} = 2\theta_j ∂ θ j ∂ Φ ( θ ) = 2 θ j (一般会用λ 2 \frac{\lambda}{2} 2 λ 来把这个系数2给消掉)。
在回归问题中,关于L2正则的回归还被称为Ridge Regression岭回归 。
Optimization
为了最大化这个对数似然函数,显然可以使用梯度下降法,只不过这一次是梯度上升。注意这是没有对偶前的优化方法,对偶的话可以直接梯度下降。 对对数似然求参数导数,得到:
∂ ∂ θ j l ( θ ) = ∑ i = 1 m ( y ( i ) − h θ ( x ( i ) ) ) x j ( i ) \frac{\partial}{\partial{\theta_j}}l(\theta)=\sum_{i=1}^{m}(y^{(i)}-h_\theta(x^{(i)}))x^{(i)}_j ∂ θ j ∂ l ( θ ) = ∑ i = 1 m ( y ( i ) − h θ ( x ( i ) )) x j ( i )
从而可以得到批梯度下降的参数更新公式,记住remember此优化方法 :
θ j = θ j + α ∑ i = 1 m ( y ( i ) − h θ ( x ( i ) ) ) x j ( i ) = θ j + α ∑ i = 1 m ( y ( i ) − 1 1 + e − θ T x ( i ) ) x j ( i ) \theta_j=\theta_j+\alpha\sum_{i=1}^{m}(y^{(i)}-h_\theta(x^{(i)}))x^{(i)}_j=\theta_j+\alpha\sum_{i=1}^{m}(y^{(i)}-\frac{1}{1+e^{-{\theta^T}{x^{(i)}}}})x^{(i)}_j θ j = θ j + α ∑ i = 1 m ( y ( i ) − h θ ( x ( i ) )) x j ( i ) = θ j + α ∑ i = 1 m ( y ( i ) − 1 + e − θ T x ( i ) 1 ) x j ( i )
Code
Copy #Import Library
from sklearn.linear_model import LogisticRegression
#Assumed you have, X (predictor) and Y (target) for training data set and x_test(predictor) of test_dataset
# Create logistic regression object
model = LogisticRegression()
# Train the model using the training sets and check score
model.fit(X, y)
model.score(X, y)
#Equation coefficient and Intercept
print('Coefficient: \n', model.coef_)
print('Intercept: \n', model.intercept_)
#Predict Output
predicted= model.predict(x_test)
在sklearn中,函数原型如下,其中penalty表示惩罚项选用何种范数,C表示Inverse of regularization strength即正则化参数的导数,tol表示Tolerance for stopping criteria即算法停止的条件。
Copy LogisticRegression(penalty='l2', dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver='liblinear', max_iter=100, multi_class='ovr', verbose=0, warm_start=False, n_jobs=1)
Reference