欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 维修 > 机器学习基础 - 分类模型之SVM

机器学习基础 - 分类模型之SVM

2025/12/10 19:05:10 来源:https://blog.csdn.net/yousuotu/article/details/147471368  浏览:    关键词:机器学习基础 - 分类模型之SVM

SVM:支持向量机


文章目录

  • SVM:支持向量机
    • 简介
    • 基础准备
      • 1. 线性可分
      • 2. 最大间隔超平面
      • 3. 什么是支持向量?
      • 4. SVM 能解决哪些问题?
      • 5. 支持向量机的分类
    • 硬间隔 SVM
      • 0. 几何间隔与函数间隔
      • 1. SVM 最优化问题
      • 2. 对偶问题
        • 1. 拉格朗日乘数法 - 等式约束优化问题
        • 2. 拉格朗日乘数法 - 不等式约束优化问题
      • 3. 引入对偶问题 -- TODO
      • 4. SVM 优化
      • 2. 软间隔SVM
    • 3. Kernel SVM
      • 1. 思想
      • 2. 核函数的作用
      • 2. 常见核函数
    • QA
      • 1. SVM 中的支持向量是什么意思?
      • 2. 什么是SVM ?
      • 3. SVM 为何采用间隔最大化?
      • 4. 为何要讲求解 SVM 的原始问题转换为其对偶问题?
      • 5. SVM 与 LR 的区别
      • 6. SVM如何处理多分类问题?
      • 5. SVM 软间隔与硬间隔表达式
      • 11. 核函数的种类和应用场景
      • 12. SVM 损失函数是什么?
      • 13. 核函数的作用是啥?
      • 14. SVM 为何能用对偶函数求解?
      • 15. SVM 和全部数据有关还是和局部数据有关?
      • 16. 为什么高斯核能够拟合无穷维度?
      • 17. LR 与 SVM 的区别?
      • 17. LR 与 SVM 的区别?

简介

https://zhuanlan.zhihu.com/p/77750026

SVM 三宝: 间隔,对偶,核技巧。它属于判别模型。Support Vector Machine

  • **支持向量:**在求解的过程中,会发现只根据部分数据就可以确定分类器,这些数据称为支持向量。
  • 支持向量机(SVM):其含义是通过支持向量运算的分类器。

SVM 是一种二分类模型, 它的目的是寻找一个超平面来对样本进行分割,分割的依据是间隔最大化,最终转化为一个凸二次规划问题来求解。

基础准备

1. 线性可分

D 0 D_0 D0 D 1 D_1 D1 是 n 维空间中的两个点集, 如果存在 n 维向量 w w w 和实数 b b b , 使得:
w x i + b > 0 ; x i ∈ D 0 w x j + b < 0 ; x j ∈ D 1 wx_i +b > 0; \quad x_i \in D_0 \\ wx_j + b < 0; \quad x_j \in D_1 wxi+b>0;xiD0wxj+b<0;xjD1
则称 D 0 D_0 D0 D 1 D_1 D1 线性可分。

2. 最大间隔超平面

能够将 D 0 D_0 D0 D 1 D_1 D1 完全正确分开的 w x + b = 0 wx+b = 0 wx+b=0 就成了一个超平面。

为了使得这个超平面更具鲁棒性,我们会去找最佳超平面,以最大间隔把两类样本分开的超平面,也称之为最大间隔超平面

  • 两类样本分别分割在该超平面的两侧
  • 两侧距离超平面最近的样本点到超平面的距离被最大化了

3. 什么是支持向量?

训练数据集中与分离超平面距离最近的样本点成为支持向量

4. SVM 能解决哪些问题?

  • **线性分类:**对于n维数据,SVM 的目标是找到一个 n-1 维的最佳超平面来将数据分成两部分。

    通过增加一个约束条件: 要求这个超平面到每边最近数据点的距离是最大的。

  • 非线性分类: SVM通过结合使用拉格朗日乘子法和KTT条件,以及核函数可以生产线性分类器

5. 支持向量机的分类

  • 硬间隔SVM(线性可分SVM): 当训练数据可分时,通过间隔最大化,学习一个线性表分类器。
  • 软间隔SVM(线性SVM):当训练数据接近线性可分时,通过软间隔最大化,学习一个线性分类器。
  • Kernel SVM: 当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性SVM。

必会:硬间隔最大化 --> 学习的对偶问题 --> 软间隔最大化 --> 非线性支持向量机(核技巧)

硬间隔 SVM

0. 几何间隔与函数间隔

1. SVM 最优化问题

任意分离超平面可定义为:
w T x + b = 0 w^Tx + b = 0 wTx+b=0
二维空间中点 ( x , y ) (x,y) (x,y) 到直线 A x + B y + C = 0 Ax + By + C=0 Ax+By+C=0 的距离公式为:
∣ A x + B y + C A 2 + B 2 \frac{|Ax+ By + C}{\sqrt{A^2 + B^2}} A2+B2 Ax+By+C

扩展到n维空间中,任意点 x x x 到超平面 w T x + b = 0 w^Tx + b = 0 wTx+b=0 的距离为:
∣ w T x + b ∣ ∣ ∣ w ∣ ∣ ∣ ∣ w ∣ ∣ = w 1 2 + . . . + w n 2 \frac{|w^Tx + b|}{||w||} \\ ||w|| = \sqrt{w_1^2 + ... + w_n^2} ∣∣w∣∣wTx+b∣∣w∣∣=w12+...+wn2
假设,支持向量到超平面的距离为 d d d ,那么就有:
{ w T x i + b ∣ ∣ w ∣ ∣ ≥ d , y i = + 1 w T x i + b ∣ ∣ w ∣ ∣ ≤ − d , y i = − 1 \begin{cases} \frac{w^Tx_i + b}{||w||} \geq d, & y_i = +1 \\ \frac{w^Tx_i + b}{||w||} \leq -d, & y_i = -1 \end{cases} {∣∣w∣∣wTxi+bd,∣∣w∣∣wTxi+bd,yi=+1yi=1
稍作转化可得到:
{ w T x i + b ∣ ∣ w ∣ ∣ d ≥ 1 , y i = + 1 w T x i + b ∣ ∣ w ∣ ∣ d ≤ − 1 , y i = − 1 \begin{cases} \frac{w^Tx_i + b}{||w||d} \geq 1, & y_i = +1 \\ \frac{w^Tx_i + b}{||w||d} \leq -1, & y_i = -1 \end{cases} {∣∣w∣∣dwTxi+b1,∣∣w∣∣dwTxi+b1,yi=+1yi=1
考虑到 ∣ ∣ w ∣ ∣ d ||w||d ∣∣w∣∣d 为正数,我们暂且令它为 1(之所以令它等于 1,是为了方便推导和优化,且这样做对目标函数的优化没有影响):
{ w T x i + b > = + 1 , y i = + 1 w T x i + b < = − 1 , y i = − 1 \begin{cases} w^Tx_i + b >= +1, & y_i = +1 \\ w^Tx_i + b <= -1, & y_i = -1 \end{cases} {wTxi+b>=+1,wTxi+b<=1,yi=+1yi=1

两个方程合并,则有:
y i ( w T x i + b ) ≥ 1 y_i (w^Tx_i + b) \geq 1 yi(wTxi+b)1
那么我们就得到了最大间隔超平面的上下两个超平面

两个异类超平面的公式分别为:
{ w T x i + b = + 1 , y i = + 1 w T x i + b = − 1 , y i = − 1 \begin{cases} w^Tx_i + b = +1, & y_i = +1 \\ w^Tx_i + b = -1, & y_i = -1 \end{cases} {wTxi+b=+1,wTxi+b=1,yi

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词