pytorch在不一樣的層使用不一樣的學習率

pytorch在不一樣的層使用不一樣的學習率 有時候咱們但願某些層的學習率與整個網絡有些差異,這裏我簡單介紹一下在pytorch裏如何設置,方法略麻煩,若是有更好的方法,請務必教我:python 首先咱們定義一個網絡:web class net(nn.Module): def __init__(self): super(net, self).__init__()
相關文章
相關標籤/搜索