Explainable AI (XAI) 不能解釋什麼 以及我們如何解決這個問題

  神經網絡準確但不可解釋,決策樹是可解釋的,但在計算機視覺中是不準確的。對於這種問題,我們在本文有一個解決辦法。   來自IEEE會員Cuntai Guan,他承認「many machine decisions are still poorly understood "。大多數論文甚至在準確性和可解釋性之間提出嚴格的二分法.  Explainable AI (XAI)試圖填補這個鴻溝,但正如我們
相關文章
相關標籤/搜索