利用Python實現卷積神經網絡的可視化(附Python代碼)

對於深度學習這種端到端模型來說,如何說明和理解其中的訓練過程是大多數研究者關注熱點之一,這個問題對於那種高風險行業顯得尤爲重視,比如醫療、軍事等。在深度學習中,這個問題被稱作「黑匣子(Black Box)」。如果不能解釋模型的工作過程,我們怎麼能夠就輕易相信模型的輸出結果呢? 以深度學習模型檢測癌症腫瘤爲例,該模型告訴你它能夠檢測出癌症的準確率高達99%,但它並沒有告訴你它是如何工作並給出判斷結果
相關文章
相關標籤/搜索