向企業解釋機器學習模型

可解釋的機器學習是人工智能(AI)和機器學習的子學科,它試圖總結機器學習系統如何做出決策。 總結機器學習系統如何做出決策可能有很多原因,例如查找數據驅動的見解,發現機器學習系統中的問題,促進法規遵從性以及使用戶對(或讓操作員能夠撤消)不可避免的錯誤決策提出建議。 [ 也在InfoWorld上:2020年的人工智能預測 ] 當然,這聽起來不錯,但是可解釋的機器學習還不是一門完美的科學。 現實是要牢記
相關文章
相關標籤/搜索