Big Transfer (BiT)論文閱讀筆記

這篇論文講的是遷移學習在圖像分類任務中的應用,作者強調這是一種通用型的遷移學習,也就是說這種方法不會爲特定的數據集做特殊的處理,不同等級的預訓練模型在往其他數據集上遷移時均採用相同的處理的方法,以此來證明BiT這種方法的普適性。 方法 上游預訓練模型 上游預訓練的模型規模體現在訓練數據的大小,而不是模型的大小。作者試驗了幾種模型,默認採用ResNet152x4。論文中按照數據的大小,分別訓練的Bi
相關文章
相關標籤/搜索