深度学习小白实现残差网络resnet18 ——pytorch「建议收藏」

深度学习小白实现残差网络resnet18 ——pytorch「建议收藏」深度学习小白实现残差网络resnet18——pytorch利用闲暇时间写了resnet18的实现代码,可能存在错误,看官可以给与指正。pytorch中给与了resnet的实现模型,可以供小白调用,这里不赘述方法。下面所有代码的实现都是使用pytorch框架书写,采用python语言。网络上搜索到的resne18的网络结构图如下。resnet18只看图中左侧网络结构就可以。(ps:使用的是简书上一个博主的图,如有冒犯,请谅解)接下来,根据如图的网络结构进行搭建网络。通过观察网络结构,发现在网络结

大家好,又见面了,我是你们的朋友全栈君。

深度学习小白实现残差网络resnet18 ——pytorch

利用闲暇时间写了resnet18 的实现代码,可能存在错误,看官可以给与指正。
pytorch中给与了resnet的实现模型,可以供小白调用,这里不赘述方法。下面所有代码的实现都是使用pytorch框架书写,采用python语言。
网络上搜索到的resne18的网络结构图如下。resnet18只看图中左侧网络结构就可以。(ps:使用的是简书上一个博主的图,如有冒犯,请谅解)
在这里插入图片描述
接下来,根据如图的网络结构进行搭建网络。通过观察网络结构,发现在网络结构中存在两种不同基础块,第一种是实现标注跳跃连接的部分,如下:在这里插入图片描述在这个块中具体实现工作流程如下图:
残差模块的结构示意图实现方法如下:

import torch.nn as nn
import torch.nn.functional as F

class basic_block(nn.Module):
    '''定义了带实线部分的残差块'''
    def __init__(self,in_channels):
        super(basic_block, self).__init__()
        self.conv1 = nn.Conv2d(in_channels,in_channels,kernel_size=3,stride=1,padding=1)
        self.conv2 = nn.Conv2d(in_channels,in_channels,kernel_size=3,stride=1,padding=1)
    def forward(self, x):
        y = F.relu(self.conv1(x))
        y = self.conv2(y)
        return F.relu(x+y)

第二种是带有虚线标注的跳跃连接部分,第一种结构是在通道数不变的情况下,进行的残差结构运算,第二种的跳跃连接结构,通道数发生了改变,于是把它单独做成一个基础块,如下图:
在这里插入图片描述实现代码如下:

class basic_block2(nn.Module):
    '''定义了带虚线部分的残差块'''
    def __init__(self,in_channels,out_channels):
        super(basic_block2, self).__init__()
        self.conv1 = nn.Conv2d(in_channels,out_channels,kernel_size=1,stride=2)
        self.conv2 = nn.Conv2d(in_channels,out_channels,kernel_size=3,stride=2,padding=1)
        self.conv3 = nn.Conv2d(out_channels,out_channels,kernel_size=3,stride=1,padding=1)
    def forward(self, x):
        z = self.conv1(x)
        y = F.relu(self.conv2(x))
        y = self.conv3(y)
        return F.relu(y+z)

这样我们就有了两种残差结构块,然后按照文章开头给出的网络结构顺序连接起来就行了,实现代码如下:

class resnet_test(nn.Module):
'''按照网络结构图直接连接,确定好通道数量就可以'''
def __init__(self):
super(resnet_test, self).__init__()
self.conv1 = nn.Conv2d(3,64,kernel_size=7, stride=2, padding=3)
self.maxp1 = nn.MaxPool2d(kernel_size=3, stride=2, padding=1)
self.resn1 = basic_block(64)
self.resn2 = basic_block(64)
self.resn3 = basic_block2(64,128)
self.resn4 = basic_block(128)
self.rest5 = basic_block2(128,256)
self.rest6 = basic_block(256)
self.rest7 = basic_block2(256,512)
self.rest8 = basic_block(512)
self.avgp1 = nn.AvgPool2d(7)
self.fullc = nn.Linear(512,1000)
def forward(self,x) :
in_size = x.size(0)
x = self.maxp1(F.relu(self.conv1(x)))
x = self.resn1(x)
x = self.resn2(x)
x = self.resn3(x)
x = self.resn4(x)
x = self.resn5(x)
x = self.resn6(x)
x = self.resn7(x)
x = self.resn8(x)
x = self.avgp1(F.relu(x))
x = x.view(in_size,-1)
x = self.fullc(x)
return F.softmax(x,dim=1)   ###使用softmax激活函数进行得分计算

这样我们就得到了自己手敲的一个resnet18网络,虽然步骤繁冗,但是小白级别的初学者容易看懂,欢迎交流,第一次写博文,不喜勿喷。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/146145.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号