深度學習預訓練模型可解釋性概覽

©PaperWeekly 原創 · 作者|蔡傑 學校|北京大學碩士生 研究方向|問答系統 近年來預訓練模型(ELMo, GPT, BERT, XLNet, ALBERT 等)給許多 NLP 任務帶來了顯著的改進,但是有一個問題一直困擾着大家:被當做黑盒的神經網絡到底是如何做的以及爲什麼會這樣做? 最近,人們對解決這個謎團越來越感興趣,就此,我將最近看的一些相關論文進行總結,希望可以和大家一起探討學
相關文章
相關標籤/搜索