谷歌開源NLP模型可視化工具LIT,模型訓練不再「黑箱」

 2020-08-26 12:56:57 機器之心報道 編輯:陳萍、魔王 深度學習模型的訓練就像是「黑箱操作」,知道輸入是什麼、輸出是什麼,但中間過程就像個黑匣子,這使得研究人員可能花費大量時間找出模型運行不正常的原因。假如有一款可視化的工具,能夠幫助研究人員更好地理解模型行爲,這應該是件非常棒的事。 近日,Google 研究人員發佈了一款語言可解釋性工具 (Language Interpreta
相關文章
相關標籤/搜索