百度英偉達聯手推混合精度訓練,同樣性能只需一半內存 | 附論文

夏乙 編譯整理 量子位 出品 | 公衆號 QbitAI 這幾年來,各科技大廠搞出了越來越大的神經網絡,達到了越來越高的準確率,但同時,這些模型對內存和計算力的要求也越來越高。 於是,有一部分研究者想要通過降低計算精度,來節約計算力。但使用混合精度或低精度運算往往會造成模型準確率的降低,還需要對網絡進行修改。 現在,這個問題有了新進展。 百度和英偉達今天展示了一項雙方的聯合研究,用16bit半精度浮
相關文章
相關標籤/搜索