機器是如何學會歧視的?

原文地址 作者:Jesse Emspak 校稿: 鄭芸 【導讀】:數據的選用和人的主觀想法往往會在機器學習中產生偏見,例如,用於訓練的數據大多是白人而導致講黑人的照片識別爲猩猩,或是研究人員認爲可以通過長相來識別這個人生是不是罪犯(然而被證實是完全錯誤的)。因此,選取合適的數據以及設計好的算法對於機器學習來說非常重要,否則只能是「垃圾進,垃圾出」。 AI 是從人類創造者那裏學到了偏見,與它那刻板,
相關文章
相關標籤/搜索