[Lecture 4] Neural Networks(神經網絡)

課堂提問 在2層簡單神經網絡中,W1和W2有什麼含義嗎? 答:W1依然可以看成是我們學習到的線性分類器中的各種各樣的模板,而 h h h 表示這些模板的得分,W2將這些模板得分組合起來形成新的複雜模板。 例如上面這個例子,假設我們既有頭朝左的馬,又有頭朝右的馬,那麼對於一匹頭朝左的馬,可能一個模板分高一個模板分低,然後取 m a x max max 後保留其是左側馬的分數。 注:這裏的 m a x
相關文章
相關標籤/搜索