InterpretML 微軟可解釋性機器學習包

InterpretML

InterpretML: A Unified Framework for Machine Learning Interpretabilityhtml

https://github.com/microsoft/interpretgit

InterpretML 是一個爲實踐者和研究者提供機器學習可解釋性算法的開源 Python 軟件包。InterpretML 能提供如下兩種類型的可解釋性:(1)明箱(glassbox),這是針對可解釋性設計的機器學習模型(好比線性模型、規則列表、廣義相加模型);(2)黑箱(blackbox)可解釋技術,用於解釋已有的系統(好比部分依賴、LIME)。這個軟件包可以讓實踐者經過在一個統一的 API 下,藉助內置的可擴展可視化平臺,使用多種方法來輕鬆地比較可解釋性算法。InterpretML 也包含了可解釋 Boosting 機(Explanable Boosting Machine,EBM)的首個實現,這是一種強大的可解釋明箱模型,能夠作到與許多黑箱模型同等準確的性能。github

其餘庫

參考吐血整理!毫不能錯過的24個頂級Python庫算法

LIME

「Why Should I Trust You?」 Explaining the Predictions of Any Classifier機器學習

https://github.com/marcotcr/limepost

LIME是一種算法(庫),能夠解釋任何分類器或迴歸量的預測。LIME是如何作到的呢?經過可解釋的模型在局部不斷接近預測值,這個模型解釋器可用於生成任何分類算法的解釋。性能

在機器學習模型中創建信任(在Python中使用LIME)學習

H2O

https://github.com/h2oai/mli-resourcesui

H2O的無人駕駛AI,提供簡單的數據可視化技術,用於表示高度特徵交互和非線性模型行爲,經過可視化提供機器學習可解釋性(MLI),說明建模結果和模型中特徵的影響。url

機器學習可解釋性


原創文章,轉載請註明出處!
本文連接:http://daiwk.github.io/posts/platform-interpret-ml.html

相關文章
相關標籤/搜索