關於深度學習模型搭建的思考

在時間序列任務中(單變量自迴歸擬合),我首先嚐試了多層LSTM模型,常遇到訓練好的模型在測試集只能輸出常數(或波動非常小),同時訓練集有一個很好的擬合,但是有時在訓練集也擬合不好,有一段總是輸出常數。我用了簡單任務和複雜任務數據測試,都會出現以上情況。 既不總是過擬合,也不總是欠擬合,這種模型效果非常不穩定。在測試[0,1,2,3,4][5]任務時,在單隱層(全連接層)時,huber損失函數,很容
相關文章
相關標籤/搜索