pytorch學習筆記(1)-optimizer.step()和scheduler.step()

optimizer.step()和scheduler.step()的區別 optimizer.step()一般用在每一個mini-batch之中,而scheduler.step()一般用在epoch裏面,可是不絕對,能夠根據具體的需求來作。只有用了optimizer.step(),模型纔會更新,而scheduler.step()是對lr進行調整。一般咱們有web optimizer = optim
相關文章
相關標籤/搜索