BERT for Joint Intent Classification and Slot Filling 使用Bert的插槽填充與意圖識別聯合模型

BERT for Joint Intent Classification and Slot Filling 使用Bert的插槽填充與意圖識別聯合模型 Abstract 意圖分類和插槽填充是自然語言理解的兩個基本任務。他們經常受到小規模的人工標籤訓練數據的影響,導致泛化能力差,尤其是對於低頻單詞。最近,一種新的語言表示模型BERT (Bidirectional Encoder Representat
相關文章
相關標籤/搜索