一文看懂 AI 訓練集、驗證集、測試集(附:分割方法+交叉驗證)

一文看懂 AI 數據集:訓練集、驗證集、測試集

數據在人工智能技術裏是很是重要的!本篇文章將詳細給你們介紹3種數據集:訓練集、驗證集、測試集。

同時還會介紹如何更合理的講數據劃分爲3種數據集。最後給你們介紹一種充分利用有限數據的方式:交叉驗證法。segmentfault

先用一個不恰當的比喻來講明3種數據集之間的關係:機器學習

  • 訓練集至關於上課學知識
  • 驗證集至關於課後的的練習題,用來糾正和強化學到的知識
  • 測試集至關於期末考試,用來最終評估學習效果

3種數據集之間的關係

什麼是訓練集?

訓練集(Training Dataset)是用來訓練模型使用的。學習

在《一文看懂機器學習》裏咱們介紹了機器學習的7個步驟,訓練集(Training Dataset)主要在訓練階段使用。測試

訓練集使用階段

什麼是驗證集?

當咱們的模型訓練好以後,咱們並不知道他的表現如何。這個時候就可使用驗證集(Validation Dataset)來看看模型在新數據(驗證集和測試集是不一樣的數據)上的表現如何。同時經過調整超參數,讓模型處於最好的狀態人工智能

驗證集使用階段

驗證集有2個主要的做用:spa

  1. 評估模型效果,爲了調整超參數而服務
  2. 調整超參數,使得模型在驗證集上的效果最好

說明:3d

  1. 驗證集不像訓練集和測試集,它是非必需的。若是不須要調整超參數,就能夠不使用驗證集,直接用測試集來評估效果。
  2. 驗證集評估出來的效果並不是模型的最終效果,主要是用來調整超參數的,模型最終效果以測試集的評估結果爲準。

什麼是測試集?

當咱們調好超參數後,就要開始「最終考試」了。咱們經過測試集(Test Dataset)來作最終的評估。blog

測試集使用階段

經過測試集的評估,咱們會獲得一些最終的評估指標,例如:準確率、精確率、召回率、F1等。ci

擴展閱讀:《分類模型評估指標——準確率、精準率、召回率、F一、ROC曲線、AUC曲線get

如何合理的劃分數據集?

如何合理的劃分數據集

下面的數據集劃分方式主要針對「留出法」的驗證方式,除此以外還有其餘的交叉驗證法,詳情見下文——交叉驗證法。

數據劃分的方法並無明確的規定,不過能夠參考3個原則:

  1. 對於小規模樣本集(幾萬量級),經常使用的分配比例是 60% 訓練集、20% 驗證集、20% 測試集。
  2. 對於大規模樣本集(百萬級以上),只要驗證集和測試集的數量足夠便可,例若有 100w 條數據,那麼留 1w 驗證集,1w 測試集便可。1000w 的數據,一樣留 1w 驗證集和 1w 測試集。
  3. 超參數越少,或者超參數很容易調整,那麼能夠減小驗證集的比例,更多的分配給訓練集。

交叉驗證法

爲何要用交叉驗證法?

假如咱們教小朋友學加法:1個蘋果+1個蘋果=2個蘋果

當咱們再測試的時候,會問:1個香蕉+1個香蕉=幾個香蕉?

若是小朋友知道「2個香蕉」,而且換成其餘東西也沒有問題,那麼咱們認爲小朋友學習會了「1+1=2」這個知識點。

若是小朋友只知道「1個蘋果+1個蘋果=2個蘋果」,可是換成其餘東西就不會了,那麼咱們就不能說小朋友學會了「1+1=2」這個知識點。

評估模型是否學會了「某項技能」時,也須要用新的數據來評估,而不是用訓練集裏的數據來評估。這種「訓練集」和「測試集」徹底不一樣的驗證方法就是交叉驗證法。

3 種主流的交叉驗證法

3 種主流的交叉驗證法

留出法(Holdout cross validation)

上文提到的,按照固定比例將數據集靜態的劃分爲訓練集、驗證集、測試集。的方式就是留出法。

留一法(Leave one out cross validation)

每次的測試集都只有一個樣本,要進行 m 次訓練和預測。
這個方法用於訓練的數據只比總體數據集少了一個樣本,所以最接近原始樣本的分佈。可是訓練複雜度增長了,由於模型的數量與原始數據樣本數量相同。
通常在數據缺少時使用。

k 折交叉驗證(k-fold cross validation)

靜態的「留出法」對數據的劃分方式比較敏感,有可能不一樣的劃分方式獲得了不一樣的模型。「k 折交叉驗證」是一種動態驗證的方式,這種方式能夠下降數據劃分帶來的影響。具體步驟以下:

  1. 將數據集分爲訓練集和測試集,將測試集放在一邊
  2. 將訓練集分爲 k 份
  3. 每次使用 k 份中的 1 份做爲驗證集,其餘所有做爲訓練集。
  4. 經過 k 次訓練後,咱們獲得了 k 個不一樣的模型。
  5. 評估 k 個模型的效果,從中挑選效果最好的超參數
  6. 使用最優的超參數,而後將 k 份數據所有做爲訓練集從新訓練模型,獲得最終模型。

k 折交叉驗證

k 通常取 10
數據量小的時候,k 能夠設大一點,這樣訓練集佔總體比例就比較大,不過同時訓練的模型個數也增多。
數據量大的時候,k 能夠設小一點。
本文首發自 產品經理的 AI 學習庫 easyai.tech

相關文章
相關標籤/搜索