關於batch normalization和layer normalization的理解

目錄 一、batch normalization和layer normalization的動機 二、BN和LN的框架原理 2.1BN和LN的具體操作原理 2.2BN和LN的優點和不足 2.3BN和LN的不同 2.4BN和LN的實例代碼展示 三、Bert、Transformer中爲何使用的是LN而很少使用BN 3.1第一個解釋 3.2第二個解釋         在深度學習中經常看到batch nor
相關文章
相關標籤/搜索