RNN和LSTM弱!爆!了!注意力模型纔是王道

循環神經網絡(RNN),長短期記憶(LSTM),這些紅得發紫的神經網絡——是時候拋棄它們了! LSTM和RNN被髮明於上世紀80、90年代,於2014年死而復生。接下來的幾年裏,它們成爲了解決序列學習、序列轉換(seq2seq)的方式,這也使得語音到文本識別和Siri、Cortana、Google語音助理、Alexa的能力得到驚人的提升。 另外,不要忘了機器翻譯,包括將文檔翻譯成不同的語言,或者是
相關文章
相關標籤/搜索