bp神經網絡和卷積神經網絡淺談

    這周首先進行了BP神經網絡的學習,主要是繼續學習了吳恩達老師的課程。1 對比了常見的激活函數,sigmoid、tanh和RELU的特色,使用範圍,其中二分類問題使用sigmoid和tanh,而tanh函數比sigmoid性能更加優越,當隱含層不肯定時,傾向於使用Relu,主要是因爲後者訓練速度快。2 爲何使用激活函數,當神經網絡中沒有激活函數時,無論有多少隱含層,最後至關於輸入對輸入進行線
相關文章
相關標籤/搜索