用不確定性來解釋和調試你的深度學習模型

文章來源:ATYUN AI平臺  隨着深度神經網絡(DNN)變得越來越強大,它們的複雜性也會增加。這種複雜性帶來了新的挑戰,包括模型的可解釋性。 可解釋性對於構建更強大且能抵抗對抗攻擊的模型至關重要。此外,爲一個新的,未經過深入研究的領域設計模型具有挑戰性,而能夠解釋模型正在做什麼可以幫助我們完成這個過程。 模特可解釋性的重要性使研究人員開發出多種方法,並在去年的NIPS會議上專門討論了這個主題。
相關文章
相關標籤/搜索