BERT文本分類實踐Keras

    項目中,BERT文本二分類或者多分類,總感受效果難言理想的樣子。使用了keras-bert包。git 概述:github         問題一: tf版bert分相似乎過重,訓練、預測很不方便,要定義類什麼的,很難看。測試         問題二: 使用bert分類,若是文本太長,速度超級慢,並且預訓練好的簡版模型微調最大長度只有512,兩個句子時候也同樣,排序            
相關文章
相關標籤/搜索