如何在 PyTorch 中設定學習率衰減(learning rate decay)

很多時候我們要對學習率(learning rate)進行衰減,下面的代碼示範瞭如何每30個epoch按10%的速率衰減: def adjust_learning_rate(optimizer, epoch): """Sets the learning rate to the initial LR decayed by 10 every 30 epochs""" lr = args.
相關文章
相關標籤/搜索