image caption筆記(七):《Bottom-Up and Top-Down Attention》

      仍然是對attention機制的擴展。可以看到,現在的工作,基本都添加了attention機制,要麼是spitial attention,要麼是semantic attention。       文章的主要貢獻包括:     (1)提出了一個新的lstm組合模型,包括了attention lstm和language lstm 兩個組件。在這個 組合模型的基礎上引入spitial att
相關文章
相關標籤/搜索