Google 翻譯中降低性別表述偏差的可擴展方法

文 / 高級軟件工程師 Melvin Johnson,Google Research 用於語言翻譯的機器學習 (ML) 模型可能會因其訓練數據中潛在的社會偏見而產生同樣的偏差。性別表述偏差即是其中一例:在對區分性別的語言和不分性別的語言之間進行翻譯時,翻譯結果中存在性別表述偏差的情況往往更加明顯。例如,Google 翻譯之前會將土耳其語中的「他/她是一名醫生」翻譯爲陽性形式,而將「他/她是一名護士
相關文章
相關標籤/搜索