複雜模型可解釋性方法——LIME

一、模型可解釋性     近年來,機器學習(深度學習)取得了一系列驕人戰績,但是其模型的深度和複雜度遠遠超出了人類理解的範疇,或者稱之爲黑盒(機器是否同樣不能理解?),當一個機器學習模型泛化性能很好時,我們可以通過交叉驗證驗證其準確性,並將其應用在生產環境中,但是很難去解釋這個模型爲什麼會做出此種預測,是基於什麼樣的考慮?作爲機器學習從業者很容易想清楚爲什麼有些模型存在性別歧視、種族歧視和民族仇恨
相關文章
相關標籤/搜索