RNN的python實現

代碼見 https://github.com/cs123951/machine_learning_practice RNN.ipynb和RNN_add.py 實現的難點主要在於backward層。 首先定義Tanh和sigmoid兩個激活層,以及最後的softmax層。 Tanh的導數爲:(1-tanh(x)*tanh(x)) simoid的導數爲:(1-sigmoid(x))*sigmoid(x
相關文章
相關標籤/搜索