卷積神經網絡(1)分類注意點

幾個重要的概念 1.激活函數: 非線性 一般用relu,不用sigmoid,因爲sigmoid求導可能導致梯度爲0. 2.softmax 函數 我們知道max,假如有兩個數,a和b,並且a>b,如果取max,那麼就直接取a,沒有第二種可能。 但這樣會造成分值小的那個飢餓。所以我希望分值大的那一項經常取到,分值小的那一項偶爾也可以取到,那麼我用softmax 就可以了。現在還是a和b,a>b,如果我
相關文章
相關標籤/搜索