論文淺嘗 | 使用孿生BERT網絡生成句子的嵌入表示

論文筆記整理:吳楊,浙江大學計算機學院,知識圖譜、NLP方向。 https://www.ctolib.com/https://arxiv.org/abs/1908.10084 動機      谷歌的 BERT 預訓練模型,已經能夠在兩個句子的語義相似度匹配等需要輸入一對句子的任務上取得了非常好的效果,但是,假如說現在有N個句子,需要爲每個句子找出與其最相似的另一個句子,顯然使用BERT需要O(N*
相關文章
相關標籤/搜索