用最簡單的方式訓練史上最強ResNet-50,性能超過魔改結構的ResNeSt

近日,CMU 的研究人員在 arXiv 上放出了一份技術報告,介紹他們如何通過蒸餾(distillation)訓練一個強大的小模型。所提出方法使用相同模型結構和輸入圖片大小的前提下,在 ImageNet 上的性能遠超之前 state-of-the-art 的 FixRes 2.5% 以上,甚至超過了魔改結構的 ResNeSt 的結果。 這也是第一個能在不改變 ResNet-50 網絡結構和不使用外
相關文章
相關標籤/搜索