Sentence-BERT 論文閱讀

BERT、RoBERTa已經在文本語義相似度任務(semantic textual similarity ,STS)上達到了sota。然而,BERT要求句子對拼接到一起再傳入模型中,這會導致巨大的計算開銷——例如,在10000條句子中尋找最相似的兩條,則需要約5*10^7次計算,如果使用BERT,則需要約65小時,這導致許多涉及篇章向量的任務,如相似度計算、聚類等無從開展。 基於此,我們提出了se
相關文章
相關標籤/搜索