機器學習中的 Shapley 值怎麼理解?

導語:在集體合作中,如何公平分配獎勵? 圖片來源:https://unsplash.com/photos/TL5Vy1IM-uA  我第一次聽說 Shapley 值是在學習模型可解釋性的時候。我知道了 SHAP,它是一個框架,可以更好地理解爲什麼機器學習模型會那樣運行。事實證明,Shapley 值已經存在了一段時間,它們最早起源於 1953 年的博弈論領域,目的是解決以下情況: 一羣擁有不同技能的
相關文章
相關標籤/搜索