告別AI模型黑盒子:可解釋性將是數據科學的下一個「超能力」

過去幾年來,人工智能研究人員在圖像識別、天然語言理解和棋類等領域取得了重大突破。但因爲缺少對複雜機器學習模型的真正理解,致使模型在傳播時出現了偏見,這種偏見在零售、面部識別和語言理解等領域的應用中出現了屢次。安全 說到底,機器學習模型大多數時候仍然是「黑盒子」,不少時候能夠拿來用,但具體原理並不十分清楚,即缺少足夠的「可解釋性」。機器學習 什麼是模型的」可解釋性「?不一樣人羣定義不同 所謂模型的可
相關文章
相關標籤/搜索