CV基礎知識點深刻理解

BN實現:html

根據:Pytorch Batch Normalizatin layer的坑 我的理解:pytorch中affine參數爲BN層的參數γβ是不是可學習的;track_running_stats爲是否滑動平均batch的均值和方差;model.train和mode.eval分別設置;可是在train的時候要凍結BN及其統計數據;須要在train模式下從新設置,由於:BN層的統計數據更新是在每一次訓練階段model.train()後的forward()方法中自動實現的,而不是在梯度計算與反向傳播中更新optim.step()中完成;CLASS torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)github

卷積層的實現:

Pool池化實現:學習

檢測中各類池化的實現(RoIPool, RoIAlign,CornerPool...):url

反捲積實現:

激活函數:

相關文章
相關標籤/搜索