訓練過程--Batchsize(先不整理了,總之通常狀況下batchsize能設多大就設多大)

儘量地設大batchsize "Large Batchphp Large Batch在 keypoints上也是有用的,大概能提到0.4到0.3的點的AP。"web 在利用 ImageNet 訓練 AlexNet 模型時,其中每 GPU 的最優批量大小爲 512。若是咱們但願使用大量 GPU 並保證每 GPU 皆擁有理想的執行效率,則應當將批量大小設定爲 16 x 512 = 8192。
相關文章
相關標籤/搜索