【pytorch】Learning Rate Policy Function

1.lr_scheduler.StepLR class torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=-1) 功能: 等間隔調整學習率,調整倍數爲gamma倍,調整間隔爲step_size。間隔單位是step。需要注意的是,step通常是指epoch,不要弄成iteration了。 參數:st
相關文章
相關標籤/搜索