【李宏毅2020 ML/DL】P51 Network Compression - Knowledge Distillation | 知識蒸餾兩大流派

我已經有兩年 ML 經歷,這系列課主要用來查缺補漏,會記錄一些細節的、自己不知道的東西。 已經有人記了筆記(很用心,強烈推薦):https://github.com/Sakura-gh/ML-notes 本節內容綜述 本節課由助教Arvin Liu補充一些前沿的技術,李老師講的,其實有些老了。 首先複習模型壓縮的四個流派。 Why learn 'em all? Mix it! 助教舉了一個混合的例
相關文章
相關標籤/搜索