deeplearning.ai 筆記 Specialization 4 week 2 Convolutional Neural Networks Case Studies

1. 實例學習 2.經典神經網絡 LeNet - 5 AlexNet VGG-16 3. 殘差網絡(Residual Networks, ResNets) 殘差塊: short cut/skip connection 原來的傳播是a->liner->ReLu->liner->ReLu->a[l+2] 殘差塊做的事是把a直接約過幾個層,傳播到ReLu之前,讓a[l+2]在ReLu計算時包含了這一部分
相關文章
相關標籤/搜索