Pytorch&先後端工做梳理

Pytorch資料詳見 大綱與Pytorch框架學習html

數據集 & 經典模型

圖像分類數據(mnist, cifar10, stl10, svhn)——VGG16, ResNet, AlexNet, LeNet, GoogleNet, DenseNet, Inception前端

圖像分割數據(PortraitDataset)——Unetgit

目標探測數據(PennFudanPed)——Faster RCNN後端

圖像生成數據(img_align_celeba_2k)——GCGAN網絡

人名分類數據(names)——RNN框架

須要前端能選擇數據集的一欄dom

網絡層

Pool——MaxPool2d, AvgPool2d, MaxUnpool2d (見Pytorch_Part3_模型模塊)函數

卷積層——Convxd, ConvTranspose2d學習

激活函數——Relu, Sigmoid, tanh, RRelu, Leaky Relu優化

softmax

Dropout (見Pytorch_Part6_正則化)

標準化——BatchNormxd, LayerNorm, InstanceNorm2d, GroupNorm

前端添加以上網絡層結構

損失函數 & 優化器 & 學習率降低

損失函數—— CrossEntropyLoss, NLLLoss, BCELoss, BCEWithLogitsLoss (見Pytorch_Part4_損失函數

優化器——SGD, RMSprop, Adam(見PyTorch 學習筆記(七):PyTorch的十個優化器

學習率降低——StepLR, MultiStepLR, ExponentialLR, ReduceLRonPlateau(見Pytorch_Part5_迭代訓練

前端添加自主選擇一欄

圖像加強

裁剪——CenterCrop, RandomCrop, RandomResizeCrop(見Pytorch_Part2_數據模塊

翻轉和旋轉——RandomHorizontalFlip, RandomVerticalFlip, RandomRotation

圖像變換——pad, ColorJitter, GrayScale, RandomGrayScale, RandomAffine, RandomErasing

隨機選取以上方法——RandomChoice, RandomApply, RandomOrder

亂序、Batch-size——DataLoader中參數

前端添加圖像加強方法一欄

網絡層封裝

統一採用Sequential結構進行封裝(見Pytorch_Part3_模型模塊

包裝相同的網絡層——ModuleList

網絡層多路選擇器——ModuleDict

先後端統一接口,封裝層的實現

其餘

Epoch

CPU/GPU——model.to('cuda'), tensor.to('cuda')(見Pytorch_Part7_模型使用

模型保存與加載(\(\beta\)階段進行)

相關文章
相關標籤/搜索