BERT大魔王爲什麼在商業環境下碰壁?

做者 | Oren Pereg html 翻譯 | NewBeeNLP跨域 寫在前面 大型基於Transformer的神經網絡,例如BERT,GPT和XLNET,最近在許多NLP任務中取得了最新的成果。這些模型的成功基於通用任務(例如語言建模)和特定下游任務之間的遷移學習, 這些模型在有標記數據的靜態評估集上表現出色。可是,在商業環境中部署這些模型一般會產生較差的結果。這是由於商業環境一般是動態的
相關文章
相關標籤/搜索