TRAINING DEEP NEURAL NETWORKS WITH LOW PRECISION MULTIPLICATIONS

文章:https://arxiv.org/abs/1412.7024 0 摘要 乘法器是深度神經網絡數字實現中空間和功耗最大的算術運算符。我們在三個基準數據集上訓練了一套最先進的神經網絡(Maxout網絡):MNIST,CIFAR-10和SVHN。它們採用三種不同的格式進行訓練:浮點,固定點和動態固定點。對於每個數據集以及每種格式,我們評估乘法的精確度對訓練後最終誤差的影響。我們發現,非常低的精度
相關文章
相關標籤/搜索