欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 新车 > 预测分析(三):基于机器学习的分类预测

预测分析(三):基于机器学习的分类预测

2025/5/17 20:07:16 来源:https://blog.csdn.net/2301_81197800/article/details/146988424  浏览:    关键词:预测分析(三):基于机器学习的分类预测

文章目录

  • 基于机器学习的分类预测
    • 分类任务
    • 逻辑回归
    • 分类树
      • 分类树的工作原理
    • 随机森林
    • 多元分类
    • 朴素贝叶斯分类器
      • 贝叶斯公式
      • 回到分类问题
      • **1. 算法原理**
      • **2. 主要类型**
        • **(1) 高斯朴素贝叶斯**
        • **(2) 多项式朴素贝叶斯**
        • **(3) 伯努利朴素贝叶斯**
      • **3. 优缺点**
      • **4. 应用场景**
      • **5. 评估指标**
      • **6. 示例代码(Python)**

基于机器学习的分类预测

分类任务

分类问题主要是分为三种类型:

  • 二元标签类问题:目标中有两个类别的问题。
  • 多元分类问题:目标多于两类的问题。
  • 多标签分类问题:对观测指派的类别或标签多于一个的问题。

我们在这一章的核心任务就是预测的分类:

  • 预测类别
  • 预测每种类别可能的概率

在模型输出每种类别的情况下,分类依据是最高概率的类别预测。这是默认的,但是在特定的问题情境中,也会随之改变。

逻辑回归

现在正在使用机器学习执行分类任务。对于二元分类问题,逻辑模型可以生成目标属于正类的条件概率。这个模型是参数化模型的另一个示例,学习算法将尽可能挖掘性能最佳的参数组合 ω \omega ω,参数 ω \omega ω按照以下等式计算估计概率:

P ( y = 1 ∣ X ) = 1 1 + e − ω T X P\left(y=1|X\right)=\frac{1}{1+e^{-\omega^TX}} P(y=1∣X)=1+eωTX1

当目标属于正类的时候,得到的值接近 1 1 1;当目标属于负类的时候,得到的值接近 0 0 0

分类树

分类树生成预测的方法是创建一些规则,连续运用这些规则,最终达到叶节点。

分类树的工作原理

我们深入研讨一下,分类树模型中的一系列规则是如何生成的?从本质上来说,分类树就是将特征空间划分为矩阵区域来生成预测。在分类的情形下,要尽量分割区域均匀。通常使用的方法是递归二元分割。假设有两个特征需要进行分割,我们要搞清楚:

  • 应该选择哪个特征进行分割?
  • 应该选择哪个点完成分割?

这种递归式的分割数据空间的方法一直持续到抵达某种停止准则。我们给出scikit-learn个简单参数用于控制分类的大小:

  • max_depth
  • min_samples_split
  • min_samples_leaf

scikit-learn库中,是基于基尼指数或者熵来确定划分的。

随机森林

随机森林(Random Forest)是一种基于决策树的集成学习模型,通过构建多棵决策树并结合它们的预测结果来提高泛化能力。

核心原理

  • 集成学习
    • 自助采样(Bootstrap):从原始数据中随机抽取多个子集(有放回抽样),训练多棵决策树。
    • 随机特征子集:每棵树在划分节点时,随机选择部分特征(如max_features参数),降低树之间的相关性。
  • 投票机制
    • 分类任务:通过多数投票确定最终类别;回归任务:取所有树预测值的平均值。

关键优势

  • 抗过拟合:多棵树的平均效应减少了单棵树的噪声影响。
  • 鲁棒性强:对缺失值、异常值不敏感,无需特征缩放。
  • 天然支持多分类:直接通过投票处理多类别问题。
  • 可解释性:通过特征重要性分析(feature_importances_)解释模型决策。

核心参数

参数名作用
n_estimators树的数量,越多模型越稳定,但计算成本越高(建议100+)。
max_depth单棵树的最大深度,控制复杂度(默认None,可能导致过拟合)。
max_features划分节点时随机选择的特征数(默认sqrt,适合分类;log2适合回归)。
min_samples_split节点分裂所需最小样本数,防止过拟合(与决策树参数类似)。
class_weight处理类别不平衡(如balanced自动调整权重)。

与决策树的对比

对比项决策树随机森林
模型复杂度单棵树易过拟合多棵树平均,泛化能力强
特征选择全部特征随机选择部分特征
预测稳定性方差大方差小
可解释性直观(树结构)需通过特征重要性分析

多元分类

多元分类(Multi-class Classification)是指将样本分配到三个或更多互斥类别的任务。
常用策略
(1) One-vs-Rest (OvR)

  • 原理:为每个类别训练一个二分类器(区分该类别与其他所有类别),预测时选择概率最高的类别。
  • 优缺点
    • 优点:实现简单,适合类别较多的场景。
    • 缺点:可能忽略类别间的细微差异,对噪声敏感。

(2) One-vs-One (OvO)

  • 原理:为每对类别训练一个二分类器,预测时通过投票决定最终类别。
  • 优缺点
    • 优点:训练更精细,避免类别不平衡问题。
    • 缺点:计算成本高(需训练( \frac{C(C-1)}{2} )个模型,( C )为类别数)。

(3) 直接多分类算法

  • Softmax回归:扩展逻辑回归,使用Softmax函数输出多类别概率。
  • 决策树/随机森林:通过树结构直接划分多类别,天然支持多分类。
  • 神经网络:使用Softmax激活函数和交叉熵损失函数。

** 评估指标**

  • 准确率(Accuracy):正确分类的样本比例。
  • 混淆矩阵:可视化各类别预测结果的交叉分布。
  • 宏平均(Macro-average):各类别指标的平均值(适用于类别均衡场景)。
  • 加权平均(Weighted-average):按类别样本数加权的平均值(适用于类别不平衡场景)。
  • F1分数:综合精确率与召回率,衡量模型对少数类的识别能力。
from sklearn.datasets import load_digits
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report# 加载多分类数据集(手写数字识别)
data = load_digits()
X, y = data.data, data.target# 划分训练集与测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 初始化模型
clf = RandomForestClassifier(n_estimators=200, max_depth=5, random_state=42)# 训练与预测
clf.fit(X_train, y_train)
y_pred = clf.predict(X_test)# 评估
print(classification_report(y_test, y_pred))

朴素贝叶斯分类器

贝叶斯公式

P ( d e f a u l t ∣ m a l e ) = P ( m a l e ∣ d e f a u l t ) P ( d e f a u l t ) P ( m a l e ) P\left(default | male\right)=\frac{P\left(male|default \right)P\left(default\right)}{P\left(male\right)} P(defaultmale)=P(male)P(maledefault)P(default)

  • P ( d e f a u l t ∣ m a l e ) P\left(default | male\right) P(defaultmale):后验概率
  • P ( d e f a u l t ) P\left(default\right) P(default):先验概率
  • P ( m a l e ∣ d e f a u l t ) P\left(male|default \right) P(maledefault) :似然,“逆”条件概率,即目标为真,信息为真的概率
  • P ( m a l e ) P\left(male\right) P(male):信息概率

P o s t e r i o r = L i k e l i h o o d × P r i o r E v i d e n c e Posterior=\frac{Likelihood \times Prior}{Evidence} Posterior=EvidenceLikelihood×Prior

回到分类问题

1. 算法原理

朴素贝叶斯是一种基于贝叶斯定理的概率分类模型,其核心思想是通过特征的条件概率来预测类别。
核心公式
P ( C ∣ X ) = P ( X ∣ C ) ⋅ P ( C ) P ( X ) P(C|X) = \frac{P(X|C) \cdot P(C)}{P(X)} P(CX)=P(X)P(XC)P(C)
其中:

  • C C C 是类别, X X X 是特征向量。
  • P ( C ∣ X ) P(C|X) P(CX) 是后验概率(类别给定特征的概率)。
  • P ( X ∣ C ) P(X|C) P(XC) 是似然度(特征给类别定的概率)。
  • P ( C ) P(C) P(C) 是先验概率(类别本身的概率)。
  • P ( X ) P(X) P(X) 是证据因子(特征的全概率)。

关键假设
特征之间条件独立(即 P ( X 1 , X 2 , … , X n ∣ C ) = ∏ i = 1 n P ( X i ∣ C ) P(X_1,X_2,\dots,X_n|C) = \prod_{i=1}^n P(X_i|C) P(X1,X2,,XnC)=i=1nP(XiC))。
这一假设简化了计算,但可能牺牲部分准确性。

2. 主要类型

根据数据类型的不同,朴素贝叶斯分为以下三类:

(1) 高斯朴素贝叶斯
  • 适用数据:连续型特征(如身高、体重)。
  • 假设:特征服从高斯分布(正态分布)。
  • 公式
    P ( X i ∣ C ) = 1 2 π σ C , i 2 exp ⁡ ( − ( X i − μ C , i ) 2 2 σ C , i 2 ) P(X_i|C) = \frac{1}{\sqrt{2\pi\sigma_{C,i}^2}} \exp\left(-\frac{(X_i - \mu_{C,i})^2}{2\sigma_{C,i}^2}\right) P(XiC)=2πσC,i2 1exp(2σC,i2(XiμC,i)2)
    其中 μ C , i \mu_{C,i} μC,i σ C , i 2 \sigma_{C,i}^2 σC,i2 是类别 C C C 下第 i i i 个特征的均值和方差。
(2) 多项式朴素贝叶斯
  • 适用数据:离散型特征(如文本分类中的词频)。
  • 假设:特征服从多项式分布。
  • 公式
    P ( X i ∣ C ) = N C , i + α N C + α ⋅ n P(X_i|C) = \frac{N_{C,i} + \alpha}{N_C + \alpha \cdot n} P(XiC)=NC+αnNC,i+α
    其中 N C , i N_{C,i} NC,i 是类别 C C C 中特征 i i i 出现的次数, N C N_C NC 是类别 C C C 的总特征数, α \alpha α 是平滑参数(防止零概率)。
(3) 伯努利朴素贝叶斯
  • 适用数据:二值特征(如文本中的单词是否出现)。
  • 假设:特征服从伯努利分布(二项分布)。
  • 公式
    P ( X i ∣ C ) = p C , i ⋅ X i + ( 1 − p C , i ) ⋅ ( 1 − X i ) P(X_i|C) = p_{C,i} \cdot X_i + (1 - p_{C,i}) \cdot (1 - X_i) P(XiC)=pC,iXi+(1pC,i)(1Xi)
    其中 p C , i p_{C,i} pC,i 是类别 C C C 中特征 i i i 1 1 1的概率。

3. 优缺点

优点缺点
计算效率高,适合大规模数据。对特征条件独立假设敏感,若假设不成立则性能下降。
无需复杂调参。对缺失值敏感。
能有效处理高维数据(如文本)。无法捕捉特征间的交互关系。

4. 应用场景

  • 文本分类(如垃圾邮件过滤、情感分析)。
  • 实时预测(因计算速度快)。
  • 推荐系统(基于用户行为的概率预测)。
  • 医学诊断(基于症状的概率推断)。

5. 评估指标

与其他分类模型类似,常用:

  • 准确率(Accuracy)
  • 混淆矩阵
  • 精确率(Precision)、召回率(Recall)、F1分数
  • ROC曲线与AUC值(针对二分类问题)。

6. 示例代码(Python)

from sklearn.datasets import fetch_20newsgroups
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import MultinomialNB
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report# 加载文本分类数据集
data = fetch_20newsgroups(subset='all', remove=('headers', 'footers', 'quotes'))
X, y = data.data, data.target# 划分训练集与测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 文本向量化(TF-IDF)
vectorizer = TfidfVectorizer(max_features=5000)
X_train_vec = vectorizer.fit_transform(X_train)
X_test_vec = vectorizer.transform(X_test)# 初始化模型
clf = MultinomialNB(alpha=0.1)  # alpha为平滑参数# 训练与预测
clf.fit(X_train_vec, y_train)
y_pred = clf.predict(X_test_vec)# 评估
print(classification_report(y_test, y_pred))

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词