Attention is all you need

最近想了一下,寫這種技術博客,沒有一定固定的格式和套路,總會覺得很亂,而且容易忘記。 所以繼上週說了儘量做demo,以後我儘量會按照這個思路寫技術性的博客。 是什麼 細節部分 怎麼用 話不多說,開始介紹Attention機制。 Attention的由來 由Google Mind發表的《Recurrent Models of Visual Attention》,將Attention開始在大範圍使用(
相關文章
相關標籤/搜索