欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 财经 > 创投人物 > NLP 复习大纲

NLP 复习大纲

2025/5/31 16:32:28 来源:https://blog.csdn.net/weixin_51147313/article/details/144906008  浏览:    关键词:NLP 复习大纲

CH3

  • 激活函数意义
    增强网络表达能力,引入非线性因素
    连续可导的非线性函数
    尽可能简单
    导数的值域要在合适的范围内

  • 为什么会发生梯度消失
    误差传播的迭代公式为:
    其中需要用到激活函数的导数,而激活函数的导数值小于1时,误差经过每一层传递都会不断衰减,当网络很深的时候,梯度会消失。

  • 损失函数的种类
    绝对值损失函数
    交叉熵损失函数
    平方损失函数

  • 梯度下降方法
    梯度下降:全批次
    随机梯度下降:每一次随机选择一个数据计算梯度
    mini-batch:结合两者
    异同:计算效率,更新频率,样本划分,目标

  • 如何解决梯度消失和过拟合
    选择合适的激活函数,用复杂的们结构代替激活函数,残差结构
    正则化解决过拟合

  • CNN
    由卷积层、子采样层、全连接层交叉堆叠而成

  • 与DNNqubie

  • DNN训练方法
    BP

  • RNN的训练方法
    BPTT

  • BPTT和BP的区别
    BPTT损失函数定义为每一个时刻的损失之和,它会在每一个时间步长内叠加所有对应的权重梯度

  • GNN如何解决邻接节点个数不确定
    将目标节点的特征更新为其自身特征和邻居特征的组合。

  • GNN卷积步骤:1.Aggregation 2.Transformation
    在最后一层(K层)得到每个结点的表示后,可以根据任务将其代入任何损失函数,然后用梯度下降法训练参数

  • GNN训练方法
    卷积,然后在最后一层得到每个节点的表示后,根据任务将其带入任何损失函数,邻接节点特征聚合 ,transformation引入非线性

相较于DNN,CNN,RNN有什么优点?

  • DNN,CNN输入输出定长,RNN处理变长问题效率更高
  • DNN,CNN无法处理时序相关的问题

CNN各层的作用是什么

  • 卷积层:通过卷积操作减少参数
  • 池化层:通过采样减少网络规模
  • 全连接层:将池化层的单元平化

GNN和CNN的区别

  • 卷积思想
    • 核心相同:两者都利用卷积操作从输入中提取特征。
    • 共享权重:CNN在特定区域共享卷积核参数,GNN在邻域节点中共享权重,减少参数量。
    • 特征聚合:两者都通过聚合局部特征(局部连接)生成全局信息。
  • 目标
    • 两者均试图降低模型复杂度,同时保留尽可能多的关键信息。
  • 训练方法
    • 均通过梯度下降法优化损失函数(如交叉熵损失)。
    • 使用类似的反向传播(BP)算法来更新权重。

LSTM VS GRU
门结构不同
LSTM:输入门+遗忘门+输出门
GRU:更新门+重置门
模型参数不同
GRU比LSTM更加简单,参数更少
对memory 的控制不同
LSTM: 用output gate 控制,传输给下一个unit。
GRU:直接传递给下一个unit,不做任何控制。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词