激活函數整理

概述 簡單的記錄一下幾個激活函數的圖像,以便自己以後又忘了回來查閱 激活函數 在pytorch中,使用relu,sigmoid和tanh可以直接用torch.relu(x),torch.sigmoid(x)和torch.numpy(x)來調用,而softplus則是用torch.nn.functional來調用,即F.softplus(x)
相關文章
相關標籤/搜索