Keras框架 深度學習模型CNN+LSTM+Attention機制 預測黃金主力收盤價

這一篇繼續對 實驗2的模型 進行拓展,增加Attention機制 先寫點Attention的簡單介紹 attention本質: 其實就是一個加權求和。 attention處理的問題,往往面臨的是這樣一個場景: 你有k個d維的特徵向量hi(i=1,2,...,k)。現在你想整合這k個特徵向量的信息,變成一個向量h∗(一般也是d維)。 solution: 1.一個最簡單粗暴的辦法就是這k個向量以ele
相關文章
相關標籤/搜索