【人工智能】「看透」神經網絡

本文是深度神經網絡可視化的一點東西 言有三 畢業於中國科學院,計算機視覺方向從業者,有三工作室等創始人 作者 | 言有三 編輯 | 言有三 大家最詬病深度學習的一點就是理論基礎不夠系統,模型就像一個黑盒子,這就更加凸顯了深度學習模型可視化的重要性了。 本文以實戰經驗爲主,除去數據的可視化部分,我們說以下幾個主要的方向(1)模型結構的可視化(2)卷積參數的可視化(3)激活區域的可視化(4)訓練過程的
相關文章
相關標籤/搜索