CS231n_Lecture5_卷積神經網絡

構成卷積神經網絡(CNN)的基本層:git   1卷積層:           激活函數(sigmoid、tanh、relu.、Leaky Relu 、pRelu、Maxout...通常用後者多,再也不用sigmoid)        各個函數的優勢和區別,詳見:github       CS231n課程筆記翻譯:神經網絡筆記 1(上) | 課程原文網絡       https://blog.cs
相關文章
相關標籤/搜索