讓我如何相信你 -- NLP模型可解釋性的6種常用方法

導語 | 深度學習是黑盒模型。雖然它能在一些任務上表現得十分出色,但是人們卻無法理解它是如何做出的決策。近年來,越來越多的研究者對於如何解釋深度學習的推理過程產生了很大的興趣,模型的可解釋性方法也成爲了學術界研究的熱點。2020年ACL就新增了一個「可解釋性和模型分析」的通道。本文總結梳理了一些NLP領域可解釋性方法,以及對於如何將可解釋性落地應用在實際業務中,提出一些筆者的拙見。文章作者:許元博
相關文章
相關標籤/搜索