李宏毅:Tuning Hyperparameters(超參數)

1、grid search vs random search 有時候random search的方法還是不錯的,因爲top k的結果已經相差不大。所以沒有必要掃過所有的參數組合,只要取前k名的其中一個結果就好了。 有sample到K的機率: 2、model-based hyperparameter optimization 不一定好用 3、reinforcement learning(強化學習)
相關文章
相關標籤/搜索