Single Headed Attention RNN: Stop Thinking With Your Head

這篇論文的語言真的頗有趣,不少地方我翻譯的不是很好你們諒解,能夠儘可能欣賞原文! Abstract 語言建模的主要方法都是癡迷於我年輕時的電視節目——變形金剛和芝麻街。咱們選擇了老辦法和通過驗證的技術,並使用了一個新奇的、受密碼啓發的縮寫:單頭注意力Single Headed Attention RNN (SHA-RNN)。做者的惟一目標是代表,若是咱們沉迷於一個略有不一樣的縮略詞和略有不一樣的結
相關文章
相關標籤/搜索