學界 | 伯克利最新研究:用算法解決算法偏差?公平機器學習的延遲影響

**大數據文摘作品 編譯:小魚** 在一些敏感領域使用機器學習,算法的公平性常會引發巨大爭議。 近期頻頻登上頭條的幾項研究大多如此:比如利用算法識別犯罪團伙或者,利用圖像識別判定同性戀。 這些問題的出現往往是因爲歷史數據中的偏差特徵,比如種族和性別上的小衆團體,往往因此在機器學習預測中產生不利的歧視結果。在包括貸款,招聘,刑事司法和廣告在內的各種廣泛使用AI的領域,機器學習因其預測誤差傷害到了歷史
相關文章
相關標籤/搜索