模型可解釋方法綜述

機器學習模型可解釋性總體上可分爲兩類: ante-hoc 可解釋性指通過訓練結構簡單、可解釋性好的模型或將可解釋性結合到具體的模型結構中的自解釋模型使模型本身具備可解釋能力。 Post-hoc 可解釋性指通過開發可解釋性技術解釋已訓練好的機器學習模型。 據解釋目標和解釋對象的不同,post-hoc 可解釋性又可分爲全局可解釋性(Global Interpretability)和局部可解釋 (Loc
相關文章
相關標籤/搜索