[論文解讀] Deep Compression

基本介紹 《Deep Compression : Compressing Deep Neural Networks With Pruning, Trained Quantization and Huffman Coding》 是ICLR16的best paper, 其核心的想法是在不損失模型精度的情況下,將ALexNet, VGG-16等普遍使用的模型進行壓縮,使此類模型移植到微型嵌入式或者移動設
相關文章
相關標籤/搜索