吳恩達神經網絡Course——week4

一個多層的神經網絡,結構是輸入層->隱藏層->隱藏層->···->隱藏層->輸出層**,在每一層中,我會首先計算Z = np.dot(W,A) + b,這叫做【linear_forward】,然後再計算A = relu(Z) 或者 A = sigmoid(Z),這叫做【linear_activation_forward】,合併起來就是這一層的計算方法,所以每   初始化網絡參數 前向傳播 2.1
相關文章
相關標籤/搜索