BN實現:html
根據:Pytorch Batch Normalizatin layer的坑 我的理解:pytorch中affine參數爲BN層的參數γ和β是不是可學習的;
track_running_stats爲是否滑動平均batch的均值和方差;model.train和mode.eval分別設置;可是在train的時候要
凍結BN及其統計數據;須要在train模式下從新設置,由於:BN層的統計數據更新是在每一次訓練階段model.train()後的forward()方法中自動實現的,而不是在梯度計算與反向傳播中更新optim.step()中完成;CLASS torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
github
卷積層的實現:
Pool池化實現:學習
檢測中各類池化的實現(RoIPool, RoIAlign,CornerPool...):url
反捲積實現:
激活函數: