PyTorch學習筆記(20) ——激活函數

0. 前言 本博客內容翻譯自紐約大學數據科學中心在2020發佈的《Deep Learning》課程的Activation Functions and Loss Functions部分. 廢話不多說,下面直接開始吧 ^ . ^ 1. 激活函數 本內容將回顧一些重要的激活函數以及其在PyTorch中的實現,它們來自各種各樣的論文,並在一些任務上有着優異的表現~ ReLU torch.nn.ReLU()
相關文章
相關標籤/搜索