博客給出了三個算例。 ui
能夠看出,focal loss 對可很好分類的樣本賦予了較小的權重,可是對分錯和不易分的樣本添加了較大的權重。spa
對於類別不平衡,使用了\(\alpha_t\)進行加權,文章中提到較好的值是0.25,說明在訓練過程當中仍然須要對正樣本進行降權。 正常的理解是訓練過程當中負樣本的數量應該遠大於正樣本,0.25的值應該是通過大量實驗得出的。 一個合理的解釋就是通過權重調整,隨着訓練的進行,正樣本的權重應該逐漸降低。這個解釋感受有點牽強附會了。。。blog