輕鬆學Pytorch-詳解Conv2D卷積處理

輕鬆學Pytorch-詳解Conv2D卷積處理

原創 gloomyfish  OpenCV學堂  4月25日
收錄於話題
#輕鬆學Pytorch系列
30個
圖片
點擊上方藍字關注咱們
微信公衆號:OpenCV學堂
關注獲取更多計算機視覺與深度學習知識
Conv2D基本原理與相關函數
常見的圖像卷積是二維卷積,而深度學習中Conv2D卷積是三維卷積,圖示以下:
圖片
Pytroch中的Conv2D是構建卷積神經網絡經常使用的函數,支持的輸入數據是四維的tensor對象,格式爲NCHW,其中N表示樣本數目、C表示通道數目彩色圖像爲3,灰度圖像爲一、H跟W分別表示圖像高與寬。它們的計算方法能夠圖示以下:
圖片
Conv2D在pytorch中有兩個相關的API函數,分別以下:
torch.nn.Conv2d(
    in_channels, // 輸入通道數
    out_channels, // 輸出通道數
    kernel_size, // 卷積核大小
    stride=1, // 步長
    padding=0, // 填充
    dilation=1, // 空洞卷積支持
    groups=1, // 分組卷積支持
    bias=True, // 偏置
    padding_mode='zeros' // 填0
)

torch.nn.functional.conv2d(
    input, // 輸入數據
    weight, // 卷積核
    bias=None, // 偏置
    stride=1, // 步長
    padding=0, // 填充
    dilation=1, // 空洞
    groups=1 // 分組
)
其中torch.nn.Conv2d主要是在各類組合的t.nn.Sequential中使用,構建CNN模型。torch.nn.functional.conv2d更可能是在各類自定義中使用,須要明確指出輸入與權重filters參數。
Pytorch圖像卷積處理
下面的代碼演示如何使用torch.nn.functional.conv2d實現圖像的模糊、梯度、拉普拉斯等常見的圖像卷積處理,代碼實現與運行演示分別以下:
圖像模糊(左側爲原圖):
圖片
圖像梯度(左側爲原圖):
圖片
圖像拉普拉斯(左側爲原圖):
圖片
邊緣提取(左側爲原圖):
圖片
Pytoch也能夠像OpenCV同樣隨意完成各類常規的圖像卷積功能了!上面幾個演示的源碼以下所示: 
import torch
import torch.nn.functional as F
import cv2 as cv
import numpy as np


def image_blur():
    image = cv.imread("D:/images/1024.png", cv.IMREAD_GRAYSCALE)
    h, w = image.shape
    print(h, w)
    cv.imshow("input", image)
    img = np.reshape(image, (1, 1, h, w))
    img = np.float32(img)
    k = torch.ones((1, 1, 7, 7), dtype=torch.float) / 49.0
    z = F.conv2d(torch.from_numpy(img), k, padding=3)
    result = z.numpy()
    print(result.shape)
    result = np.reshape(result, (h, w))
    cv.imshow("blur", np.uint8(result))
    cv.waitKey(0)
    cv.destroyAllWindows()


def image_gradient():
    image = cv.imread("D:/images/1024.png", cv.IMREAD_GRAYSCALE)
    h, w = image.shape
    print(h, w)
    cv.imshow("input", image)
    img = np.reshape(image, (1, 1, h, w))
    img = np.float32(img)
    k = torch.tensor([-1, -2, -1, 0, 0, 0, 1, 2, 2], dtype=torch.float)
    k = k.view(1, 1, 3, 3)
    print(k.size(), k)
    z = F.conv2d(torch.from_numpy(img), k, padding=1)
    result = z.numpy()
    print(result.shape)
    result = np.reshape(result, (h, w))
    cv.normalize(result, result, 0, 1.0, cv.NORM_MINMAX)
    cv.imshow("gradint", np.uint8(result*255))
    cv.waitKey(0)
    cv.destroyAllWindows()


def image_laplian():
    image = cv.imread("D:/images/1024.png", cv.IMREAD_GRAYSCALE)
    h, w = image.shape
    print(h, w)
    cv.imshow("input", image)
    img = np.reshape(image, (1, 1, h, w))
    img = np.float32(img)
    k = torch.tensor([-1, -1, -1, -1, 8, -1, -1, -1, -1], dtype=torch.float)
    k = k.view(1, 1, 3, 3)
    print(k.size(), k)
    z = F.conv2d(torch.from_numpy(img), k, padding=1)
    result = z.numpy()
    print(result.shape)
    result = np.reshape(result, (h, w))
    cv.normalize(result, result, 0, 1.0, cv.NORM_MINMAX)
    cv.imshow("reshape", np.uint8(result*255))
    cv.waitKey(0)
    cv.destroyAllWindows()


def image_edge():
    image = cv.imread("D:/images/1024.png", cv.IMREAD_GRAYSCALE)
    h, w = image.shape
    print(h, w)
    cv.imshow("input", image)
    img = np.reshape(image, (1, 1, h, w))
    img = np.float32(img)
    k = torch.tensor([-1, 0, 0, 1], dtype=torch.float)
    k = k.view(1, 1, 2, 2)
    print(k.size(), k)
    z = F.conv2d(torch.from_numpy(img), k, padding=0)
    result = z.numpy()
    print(result.shape)
    result = np.reshape(result, (h-1, w-1))
    cv.imshow("reshape", np.uint8(abs(result)))
    cv.waitKey(0)
    cv.destroyAllWindows()


if __name__ == "__main__":
    image_edge()

若是你對Pytorch中的YOLOv5對象檢測感興趣,想訓練自定義對象檢測,掃碼查看下面的視頻教程,一鍵獲取該技能便可:
圖片
相關文章
相關標籤/搜索