談談機器學習模型的可解釋性

隨着AI和機器學習的發展,越來越多的決策會交給自動化的機器學習算法來做。但是當我們把一些非常重要的決定交給機器的時候,我們真的放心麼?當波音飛機忽略駕駛員的指令,決定義無反顧的衝向大地;當銀行系統莫名其妙否決你的貸款申請的時候;當自動化敵我識別武器系統決定向無辜平民開火的時候;人類的內心應該是一萬個草泥馬飛過,大聲的質問,「爲什麼?」 機器學習算法可以看成是如上圖所示的黑盒子模型,訓練數據流入黑盒
相關文章
相關標籤/搜索