Knowledge Distillation(6)——Large scale distributed neural net training through online distillation

Large scale distributed neural network training through online distillation 概述 Google Brain, Google DeepMind等團隊合作的一篇論文,Hinton的名字赫然在列,發表在ICLR2018. 概述 主要想法是,現在的分佈式SGD是有缺陷的,因爲需要花費大量的時間。且在投入了一定的機器後,繼續投入計算
相關文章
相關標籤/搜索