另一種可微架構搜索:商湯提出在反傳中學習架構參數的SNAS

爲了尋找可以用在大規模數據集上的成熟的AutoML 或神經網絡架構搜索(NAS)解決方案,本文作者提出了一種經濟的、端到端的 NAS:隨機神經網絡架構搜索(SNAS)。該方法在保持 NAS 工作流程完整性和可微性的同時,在同一輪反向傳播中訓練神經運算的參數和網絡架構分佈的參數。在使用 CIFAR-10 數據集進行的實驗中,SNAS 在經過更少 epoch 迭代的情況下取得了當前最佳性能,而且其效果
相關文章
相關標籤/搜索