Reformer: 高效的Transformer

作者:Nikita Kitaev, Łukasz Kaiser 編譯:ronghuaiyang 導讀 來自Google AI的最新的進展。 理解序列數據 —— 如語言、音樂或視頻 —— 是一項具有挑戰性的任務,特別是當它依賴於大量的周圍環境時。例如,如果一個人或一個物體在視頻中消失,很久以後又重新出現,許多模型就會忘記它的樣子。在語言領域,長短時記憶(LSTM)神經網絡覆蓋了足夠的上下文來逐句翻譯
相關文章
相關標籤/搜索