pytorch-Resnet網絡

殘差網絡:將輸入層與輸出層進行鏈接,保證了通過這層網路結構,網絡的運算能力不會出現較大的改變網絡

 

網絡解析:ide

第一層網絡: 輸入網絡通過一個卷積層,再通過一個batch_normalize, 再通過一個relu層spa

第二層網絡;通過一層卷積層,將卷積後的網絡與原輸入數據進行對應位置相加操做, 將加和後的網絡進行batch_normalize, 再通過一層relu code

import torch
from torch import nn


def conv3x3(in_planes, out_planes, stride=1):
   
    return nn.Conv2d(in_planes, out_planes, kernel_size=3, stride=1, padding=1, bias=False)  # 定義卷積層
 

class BasicBlock(nn.Module):
    def __init__(self, inplanes, outplanes, stride, downsample=None):
        super(BasicBlock, self).__init__() 
        self.conv1 = conv3x3(inplanes, outplanes, stride=stride)  # 第一個卷積
        self.bn = nn.BatchNorm2d(outplanes) # 定義batch_norm層
        self.relu = nn.ReLU(inplace=True) # 定義激活層
        self.conv2 = conv3x3(outplanes, outplanes, stride=stride) # 第二個卷積
        self.bn2 = nn.BatchNorm1d(outplanes) # 進行標準化操做
        self.downsample = downsample # 進行維度的下降, 一般使用卷積操做來進行維度的下降

    def forward(self, x):
 
        residual = x   # 原始的殘差模塊 

        x = self.conv1(x)  # 第一次卷積
        x = self.bn(x) # 歸一化操做
        x = self.relu(x) # 激活操做
 
        x = self.conv2(x) # 第二次卷積
        out = self.bn2(x) # 歸一化操做

        if self.downsample is not None:
            residual = self.downsample(x) # 是否須要對原始的樣本作降採樣操做

        out += residual # 進行加和操做
        out = self.relu(out) # 進行激活操做

        return out
相關文章
相關標籤/搜索