Optimizing CNN Model Inference on CPUs翻譯

摘要 卷積神經網絡(CNN)模型的普及以及CPU的普遍存在意味着CNN模型在CPU上推理的更好性能可以爲大量用戶帶來可觀的收益。爲了提高CNN推理在CPU上的性能,當前的方法(例如MXNet和Intel OpenVINO)通常將模型視爲圖形,並使用諸如Intel MKL-DNN的高性能庫來實現圖形的操作。儘管可以通過現成的庫在單個操作上實現合理的性能,但由於預定義了本地操作級別的優化,因此該解決方
相關文章
相關標籤/搜索