CNN不要關心模板/filter的參數怎麼來,attention不要關心權重怎麼來的。神經網絡不要關心參數怎麼來的。

一些我的想法。機器學習 在剛開始學習CNN的時候,很好奇filter的參數是怎麼來的。看視頻過程當中也有人問。實際上咱們並不須要關心filter中的參數,只要能作梯度降低,那麼咱們的目標就是使得loss降低。而filter中的參數天然會變得更有利於loss降低。至於filter卷積後是在提取什麼特徵,這徹底須要咱們本身下定義。最近複習attention機制,講attention的例子時會給人一種權
相關文章
相關標籤/搜索