欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 财经 > 金融 > 大连理工大学选修课——机器学习笔记(9):线性判别式与逻辑回归

大连理工大学选修课——机器学习笔记(9):线性判别式与逻辑回归

2025/5/1 19:00:45 来源:https://blog.csdn.net/m0_75077001/article/details/147640222  浏览:    关键词:大连理工大学选修课——机器学习笔记(9):线性判别式与逻辑回归

线性判别式与逻辑回归

概述

判别式方法

产生式模型需要计算输入、输出的联合概率

  • 需要知道样本的概率分布,定义似然密度的隐式参数
  • 也称为基于似然的分类

判别式模型直接构造判别式 g i ( x ∣ θ i ) g_i(x|\theta_i) gi(xθi),显式定义判别式参数,不关心数据生成过程

基于判别式的方法只关注类区域之间的边界

在这里插入图片描述

一般认为,估计样本集的类密度比估计类判别式更困难,因为构造判别式通常采用简单的模型

如,线性判别式:

g i ( x ∣ w i , w i 0 ) = w i T + w i 0 = ∑ j = 1 d w i j x j + w i 0 g_i(x|w_i,w_{i0})=w_i^T+w_{i0}=\sum_{j=1}^dw_{ij}x_j+w_{i0} gi(xwi,wi0)=wiT+wi0=j=1dwijxj+wi0

广义上,线性判别式代表了一类机器学习模型

  • 逻辑回归
  • 支持向量机
  • 感知机
  • 神经网络

狭义上,线性判别式仅代表逻辑回归

线性判别式

建立判别式

g i ( x ∣ w i , w i 0 ) = w i T x + w i 0 = ∑ j = 1 d w i j x j + w i 0 g_i(x|w_i,w_{i0})=w_i^Tx+w_{i0}=\sum_{j=1}^dw_{ij}x_j+w_{i0} gi(xwi,wi0)=wiTx+wi0=j=1dwijxj+wi0

最大熵模型的判别式还是从条件后验概率出发

在这里插入图片描述

建模的条件

  1. 数据只有两类

  2. 线性可分

    在这里插入图片描述

判别式模型不考虑数据集的概率分布,直接假定判别式的形式

模型的训练

g i ( x ∣ w i , w i 0 ) = w i T x + w i 0 = ∑ j = 1 d w i j x j + w i 0 g_i(x|w_i,w_{i0})=w_i^Tx+w_{i0}=\sum_{j=1}^dw_{ij}x_j+w_{i0} gi(xwi,wi0)=wiTx+wi0=j=1dwijxj+wi0

可以采用梯度法,牛顿法等

也可以采用全局优化算法,如遗传算法,模拟退火算法等

线性模型的推广

如果数据不是线性可分的,可以提高模型的复杂度,例如使用二次判别式

  • 升维操作,增加高阶项

在这里插入图片描述

  • 升维操作的一般形式

    g i ( x ) = ∑ j = 1 k w j θ i j ( x ) + w i 0 g_i(x)=\sum_{j=1}^kw_j\theta_{ij}(x)+w_i0 gi(x)=j=1kwjθij(x)+wi0

    其中, θ i j \theta_{ij} θij是非线性函数,称为基函数

    常用的基函数有sin,exp,log等

线性模型的及决策

原则上,每个类别对应一个判别式,二值分类一个判别式可以分类

g ( x ) > 0 ? C 1 : C 2 g(x)>0\ ?\ C_1:C2 g(x)>0 ? C1:C2

线性模型的几何意义

任取超平面的两个点 x 1 , x 2 , x_1,x_2, x1,x2, g ( x 1 ) = g ( x 2 ) g(x_1)=g(x_2) g(x1)=g(x2)

w T w^T wT为超平面法线

x的新表达式为

x = x p + r w ∣ ∣ w ∣ ∣ x=x_p+r\frac{w}{||w||} x=xp+r∣∣w∣∣w

其中, x p x_p xp x x x到超平面的投影;r是x到超平面的距离 r = g ( x ) ∣ ∣ w ∣ ∣ r=\frac{g(x)}{||w||} r=∣∣w∣∣g(x)

超平面到原点的距离为 r 0 = w o ∣ ∣ w ∣ ∣ r_0=\frac{w_o}{||w||} r0=∣∣w∣∣wo

处理多类问题

当类别数大于2时,需要k个判别式,假定所有类均线性可分,则可以用线性判别式进行区分

对于属于类别 C i C_i Ci的样本 x x x,我们期望其判别式函数 g i ( x ) > 0 g_i(x)>0 gi(x)>0,而其它判别式函数 g j ( x ) < 0 g_j(x)<0 gj(x)<0

但是现实中,多个类别的判别式可能同时给出 g ( x ) > 0 g(x)>0 g(x)>0

因此,我们取判别式值最大的类即 预测类别 = m a x g i ( x ) 预测类别=max\ g_i(x) 预测类别=max gi(x)

此方法称为线性分类器

如果类线性不可分,则可以采取

  1. 升维
  2. 逐对分离:假定各类别间逐对线性可分,那么,有 K ( K − 1 ) 2 \frac{K(K-1)}{2} 2K(K1)个对,建立这么多个线性判别式

在这里插入图片描述

如果k既不属于i也不属于j,则在训练中舍弃样本 x t x^t xt x t x^t xt为其它类样本

这种不断排除的理念类似决策树

逻辑回归

讨论二值分类的对数线性模型

我们从后验概率 P ( C i ∣ x ) P(C_i|x) P(Cix)的计算出发,建立学习模型

定义 P ( C 1 ∣ x ) = y , P ( C 2 ∣ x ) = 1 − y P(C_1|x)=y,P(C_2|x)=1-y P(C1x)=y,P(C2x)=1y

决策为:

在这里插入图片描述

假设两个类别的数据 C 1 , C 2 C_1,C_2 C1,C2服从高斯分布,两类别共享协方差矩阵,在此假设下,贝叶斯分类器的判别式 g ( x ) g(x) g(x)是线性的,推导如下:

根据高斯判别分析的结论:

  • 后验概率 P ( C 1 ∣ x ) P(C_1|x) P(C1x)可表示为:

l o g P ( C 1 ∣ x ) P ( C 2 ∣ x ) = w T x + w 0 \begin{align} log\frac{P(C_1|x)}{P(C_2|x)}=w^Tx+w_0 \end{align} logP(C2x)P(C1x)=wTx+w0

  • 由于 P ( C 2 ∣ x ) = 1 − P ( C 1 ∣ x ) P(C_2|x)=1-P(C_1|x) P(C2x)=1P(C1x),上式等价于:

l o g P ( C 1 ∣ x ) 1 − P ( C 1 ∣ x ) = w T x + w 0 = l o g i t ( P ( C 1 ∣ x ) ) \begin{align} log\frac{P(C_1|x)}{1-P(C_1|x)}=w^Tx+w_0=logit(P(C_1|x)) \end{align} log1P(C1x)P(C1x)=wTx+w0=logit(P(C1x))

这正是对数几率的定义

  • ( 2 ) (2) (2)移项,得:

P ( C 1 ∣ x ) = 1 1 + e − ( w T + w 0 ) P(C_1|x)=\frac{1}{1+e^{-(w^T+w_0)}} P(C1x)=1+e(wT+w0)1

( 3 ) (3) (3)式为逻辑回归的模型形式,sigmoid。

Logistic函数(也称sigmoid)

P ( C 1 ∣ x ) = 1 1 + e − ( w T + w 0 ) = s i g m o i d ( w T x + w 0 ) P(C_1|x)=\frac{1}{1+e^{-(w^T+w_0)}}=sigmoid(w^Tx+w_0) P(C1x)=1+e(wT+w0)1=sigmoid(wTx+w0)

在这里插入图片描述

sigmoid函数图像,y>0.5,选C_1

Logistic函数的一般形式

在这里插入图片描述

其中, μ \mu μ为位置参数, γ > 0 \gamma>0 γ>0为形状参数,关于 ( μ , 1 2 ) (\mu,\frac{1}{2}) (μ,21)对称

逻辑回归

逻辑回归的核心思想,在于不考虑数据分布,假定类似然密度的对数比为线性函数,那么:

l o g P ( x ∣ C 1 ) P ( x ∣ C 2 ) = w T x + w 0 0 \begin{align} log\ \frac{P(x|C_1)}{P(x|C_2)}=w^Tx+w_0^0 \end{align} log P(xC2)P(xC1)=wTx+w00

通过贝叶斯定理,将后验概率转换为似然比和先验比的乘积:

l o g P ( C 1 ∣ x ) P ( C 2 ∣ x ) = l o g P ( x ∣ C 1 ) P ( x ∣ C 2 ) + l o g P ( C 1 ) P ( C 2 ) \begin{align} log\frac{P(C_1|x)}{P(C_2|x)}=log\frac{P(x|C_1)}{P(x|C_2)}+log\frac{P(C_1)}{P(C_2)} \end{align} logP(C2x)P(C1x)=logP(xC2)P(xC1)+logP(C2)P(C1)

由公式 ( 2 ) ( 3 ) ( 4 ) (2)(3)(4) (2)(3)(4)得:

l o g i t ( P ( C 1 ∣ x ) ) = w T x + w 0 0 + l o g P ( C 1 ) P ( C 2 ) \begin{align}logit(P(C_1|x))=w^Tx+w^0_0+log\frac{P(C_1)}{P(C_2)} \end{align} logit(P(C1x))=wTx+w00+logP(C2)P(C1)

w 0 0 + l o g P ( C 1 ) P ( C 2 ) w^0_0+log\frac{P(C_1)}{P(C_2)} w00+logP(C2)P(C1)合并为新的偏置项,那么先验概率 P ( C k ) P(C_k) P(Ck)被吸收到了偏置项,模型仍保持线性:

l o g i t ( P ( C 1 ∣ x ) ) = w T x + w 0 0 logit(P(C_1|x))=w^Tx+w^0_0 logit(P(C1x))=wTx+w00

处理多类问题

我们推广二值分类至 K > 2 K>2 K>2的情形,假定:

l o g p ( x ∣ C i ) p ( x ∣ C k ) = w i T + w i 0 0 \begin{align} log\frac{p(x|C_i)}{p(x|C_k)}=w_i^T+w_{i0}^0 \end{align} logp(xCk)p(xCi)=wiT+wi00

进而:

p ( C i ∣ x ) p ( C k ∣ x ) = e w i T + w i 0 , i = 1 , 2 , ⋯ , K − 1 \begin{align} \frac{p(C_i|x)}{p(C_k|x)}=e^{w_i^T+w_{i0}},\quad i=1,2,\cdots,K-1 \end{align} p(Ckx)p(Cix)=ewiT+wi0,i=1,2,,K1

∑ i = 1 K p ( C i ∣ x ) p ( C K ∣ x ) = 1 p ( C k ∣ x ) = 1 + ∑ j = 1 K − 1 e w j x + w j 0 \begin{align} \sum_{i=1}^K\frac{p(C_i|x)}{p(C_K|x)}=\frac{1}{p(C_k|x)}= 1+\sum_{j=1}^{K-1}e^{w_jx+w_{j0}} \end{align} i=1Kp(CKx)p(Cix)=p(Ckx)1=1+j=1K1ewjx+wj0

于是:

p ( C k ∣ x ) = 1 1 + ∑ j = 1 K − 1 e w j x + w j 0 \begin{align} p(C_k|x)=\frac{1}{1+\sum_{j=1}^{K-1}e^{w_jx+w_{j0}}} \end{align} p(Ckx)=1+j=1K1ewjx+wj01

对于其它类别 i = 1 , ⋯ , K − 1 , i=1,\cdots,K-1, i=1,,K1,由公式 ( 3 ) (3) (3)得:

p ( C i ∣ x ) = e w i x + w i 0 1 + ∑ j = 1 K − 1 e w j x + w 0 \begin{align} p(C_i|x)=\frac{e^{w_ix+w_{i0}}}{1+\sum_{j=1}^{K-1}e^{w_jx+w_0}} \end{align} p(Cix)=1+j=1K1ewjx+w0ewix+wi0

将公式同一形式,对所有 i = 1 , ⋯ , K : i=1,\cdots,K: i=1,,K:

p ( C i ∣ x ) = e w i x + w i 0 ∑ j = 1 K e w j x + w j 0 , 其中 w K , w K 0 = 0 p(C_i|x)=\frac{e^{w_ix+w_{i0}}}{\sum_{j=1}^Ke^{w_jx+w_{j0}}},其中w_K,w_{K0}=0 p(Cix)=j=1Kewjx+wj0ewix+wi0,其中wK,wK0=0

softmax函数

y i = p ^ ( C i ∣ x ) = e w i x + w 0 ∑ e w j x + w j 0 y_i=\hat p(C_i|x)=\frac{e^{w_ix+w_0}}{\sum e^{w_jx+w_{j0}}} yi=p^(Cix)=ewjx+wj0ewix+w0

如果一个类C的判别式加权函数值明显大于其它类的加权和,那么 y i y_i yi接近于1,将数值限定在了 [ 0 , 1 ] [0,1] [0,1]之间,可以用概率表示。

逻辑回归与最大熵模型

逻辑回归和最大熵模型可以认为是同一类模型的不同表现形式。

在这里插入图片描述

逻辑回归的训练——梯度下降法

逻辑回归交叉熵损失函数:

E = − ∑ [ r l o g y + ( 1 − r ) l o g ( 1 − y ) ] E=-\sum [rlogy+(1-r)log(1-y)] E=[rlogy+(1r)log(1y)]

对E求偏导,乘以学习率,为更新方向:

△ w j = − η ∂ E ∂ w j = η ∑ ( r − y ) x j \triangle w_j=-\eta\frac{\partial E}{\partial w_j}=\eta\sum(r-y)x_j wj=ηwjE=η(ry)xj

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词