欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 时评 > 残差神经网络(ResNet)概念解析与用法实例:简洁的图像处理任务

残差神经网络(ResNet)概念解析与用法实例:简洁的图像处理任务

2025/5/16 0:12:41 来源:https://blog.csdn.net/m0_69722969/article/details/146963418  浏览:    关键词:残差神经网络(ResNet)概念解析与用法实例:简洁的图像处理任务

目录

1. 前言

2. ResNet的核心思想

2.1 残差学习

2.2 跳跃连接

3. ResNet的架构

3.1 残差块

3.2 ResNet的整体架构

4. ResNet实例:随便处理处理图像

5. 总结


1. 前言

随着深度学习的发展,神经网络的层数不断增加,但随之而来的是梯度消失和梯度爆炸问题,这使得训练深层网络变得困难。2015年,何恺明等人提出了残差神经网络(ResNet),通过引入残差块和跳跃连接,成功解决了这一问题,并在ImageNet图像分类竞赛中取得了突破性成绩。本文将详细介绍ResNet的原理和架构,并通过PyTorch实现一个简单的ResNet模型。

2. ResNet的核心思想

2.1 残差学习

传统的深度神经网络在层数增加时,容易遇到梯度消失或梯度爆炸问题,导致模型训练变得困难。ResNet的核心思想是通过残差学习来解决这一问题。残差学习的关键在于让网络学习输入与输出之间的残差,而不是直接学习输出。具体来说,对于每一层,网络学习的是残差函数:

其中,x 是输入,F(x) 是卷积层和激活函数的组合输出,y 是最终的输出。

2.2 跳跃连接

跳跃连接(Skip Connection)是ResNet的另一个核心设计。它允许输入直接跳过某些层,连接到更深层的输出。这种设计不仅保留了输入的信息,还使得梯度可以直接传递到较浅的层,从而缓解了梯度消失和梯度爆炸问题。

3. ResNet的架构

3.1 残差块

残差块是ResNet的基本构建单元。一个常见的残差块结构包括以下部分:

  1. 卷积层:通常使用 3×3 的卷积操作。

  2. Batch Normalization:对卷积后的输出进行标准化。

  3. ReLU激活函数:对输出进行非线性变换。

  4. 跳跃连接:输入直接加到卷积层的输出上。

如果输入和输出的维度不匹配,通常会使用 1×1 卷积来匹配维度。

3.2 ResNet的整体架构

ResNet由多个残差块堆叠而成,具有非常深的网络结构。根据不同的深度,ResNet可以有多种变种,如ResNet-18、ResNet-34、ResNet-50、ResNet-101、ResNet-152等。

以ResNet-18为例,其主要结构包括:

  1. 输入层:通常为 224×224×3 的图像。

  2. 卷积层 + 最大池化:用于特征提取。

  3. 残差模块:由多个残差块组成的模块。ResNet-18包含4个残差模块,每个模块包含不同数量的残差块。

  4. 全局平均池化:对每个通道进行池化,输出固定大小的特征图。

  5. 全连接层:输出最终的分类结果。

4. ResNet实例:随便处理处理图像

以下是使用PyTorch实现ResNet-18的代码示例:

import torch
import torch.nn as nn
import torch.nn.functional as F# 定义残差块
class BasicBlock(nn.Module):def __init__(self, in_channels, out_channels, stride=1):super(BasicBlock, self).__init__()self.conv1 = nn.Conv2d(in_channels, out_channels, kernel_size=3, stride=stride, padding=1)self.bn1 = nn.BatchNorm2d(out_channels)self.relu = nn.ReLU(inplace=True)self.conv2 = nn.Conv2d(out_channels, out_channels, kernel_size=3, padding=1)self.bn2 = nn.BatchNorm2d(out_channels)# 跳跃连接,确保输入和输出的维度相同self.shortcut = nn.Sequential()if stride != 1 or in_channels != out_channels:self.shortcut = nn.Sequential(nn.Conv2d(in_channels, out_channels, kernel_size=1, stride=stride),nn.BatchNorm2d(out_channels))def forward(self, x):out = self.conv1(x)out = self.bn1(out)out = self.relu(out)out = self.conv2(out)out = self.bn2(out)out += self.shortcut(x)  # 加入跳跃连接out = self.relu(out)return out# 定义 ResNet
class ResNet(nn.Module):def __init__(self, block, num_blocks, num_classes=1000):super(ResNet, self).__init__()self.in_channels = 64self.conv1 = nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3)self.bn1 = nn.BatchNorm2d(64)self.relu = nn.ReLU(inplace=True)self.maxpool = nn.MaxPool2d(kernel_size=3, stride=2, padding=1)# 创建 ResNet 的各个残差块self.layer1 = self._make_layer(block, 64, num_blocks[0], stride=1)self.layer2 = self._make_layer(block, 128, num_blocks[1], stride=2)self.layer3 = self._make_layer(block, 256, num_blocks[2], stride=2)self.layer4 = self._make_layer(block, 512, num_blocks[3], stride=2)self.avgpool = nn.AdaptiveAvgPool2d((1, 1))self.fc = nn.Linear(512, num_classes)def _make_layer(self, block, out_channels, num_blocks, stride):layers = []layers.append(block(self.in_channels, out_channels, stride))self.in_channels = out_channelsfor _ in range(1, num_blocks):layers.append(block(self.in_channels, out_channels))return nn.Sequential(*layers)def forward(self, x):x = self.conv1(x)x = self.bn1(x)x = self.relu(x)x = self.maxpool(x)x = self.layer1(x)x = self.layer2(x)x = self.layer3(x)x = self.layer4(x)x = self.avgpool(x)x = torch.flatten(x, 1)x = self.fc(x)return x# ResNet-18
def ResNet18():return ResNet(BasicBlock, [2, 2, 2, 2])# 实例化模型
model = ResNet18()
print(model)

以下是输入数据如何逐步转化为输出的详细过程:

  1. 输入数据:10×3×224×224

  2. 初始卷积层:10×64×112×112

  3. 最大池化层:10×64×56×56

  4. 残差模块1(layer1):10×64×56×56

  5. 残差模块2(layer2):10×128×28×28

  6. 残差模块3(layer3):10×256×14×14

  7. 残差模块4(layer4):10×512×7×7

  8. 全局平均池化层:10×512×1×1

  9. 全连接层:10×1000

5. 总结

ResNet通过引入残差学习和跳跃连接,成功解决了深层神经网络中的梯度消失和梯度爆炸问题,使得训练非常深的网络成为可能。ResNet不仅在图像分类任务中表现出色,还在目标检测、语义分割等任务中得到了广泛应用。通过本文的介绍和代码示例,相信读者对ResNet有了更深入的理解,并可以尝试在自己的项目中应用这一强大的网络结构。我是橙色小博,关注我,一起在人工智能领域学习进步!

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词