學界 | 伯克利最新研究:用算法解決算法偏差?公平機器學習的延遲影響

近期頻頻登上頭條的幾項研究大多如此:比如利用算法識別犯罪團伙或者,利用圖像識別判定同性戀。 這些問題的出現往往是因爲歷史數據中的偏差特徵,比如種族和性別上的小衆團體,往往因此在機器學習預測中產生不利的歧視結果。在包括貸款,招聘,刑事司法和廣告在內的各種廣泛使用AI的領域,機器學習因其預測誤差傷害到了歷史上弱勢羣體,而廣受詬病。 我有幾張阿里雲幸運券分享給你,用券購買或者升級阿里雲相應產品會有特惠驚
相關文章
相關標籤/搜索