kaggle比賽tweet_sentiment_extraction,帶你上0.71分數

文章目錄 1.前言 2.代碼分析 2.1 加載必要的庫 2.2 加載比賽中的數據 2.3 構造dataset生成器 2.4 Roberta模型 2.5 Warmup和學習率指數降低 2.6 focal loss 2.7 joblib並行化訓練 1.前言 在這個比賽已經摺騰了1個多月了,終於分數有點上升。在LB分數榜上能夠取得0.71的分數,模型主要用到Roberta模型。主要使用的技術以下:pyt
相關文章
相關標籤/搜索