Keras.Sequential.fit()

Sequential.fit()

語法syntax

fit(x=None, y=None, 
    batch_size=None,
    epochs=1,
    verbose=1,
    callbacks=None, 
    validation_split=0.0, validation_data=None, 
    shuffle=True, 
    class_weight=None, sample_weight=None, 
    initial_epoch=0, 
    steps_per_epoch=None,
    validation_steps=None)

參數說明

  • x: 訓練數據的 Numpy 數組。 若是模型中的輸入層被命名,你也能夠傳遞一個字典,將輸入層名稱映射到 Numpy 數組。 若是從本地框架張量饋送(例如 TensorFlow 數據張量)數據,x 能夠是 None(默認)。
  • y: 目標(標籤)數據的 Numpy 數組。 若是模型中的輸出層被命名,你也能夠傳遞一個字典,將輸出層名稱映射到 Numpy 數組。 若是從本地框架張量饋送(例如 TensorFlow 數據張量)數據,y 能夠是 None(默認)。
  • batch_size: 整數或 None。每次提度更新的樣本數。若是未指定,默認爲 32.
  • epochs: 整數。訓練模型迭代輪次。一個輪次是在整個 xy 上的一輪迭代。請注意,與 initial_epoch 一塊兒,epochs 被理解爲 「最終輪次」。模型並非訓練了 epochs 輪,而是到第 epochs 輪中止訓練。
  • verbose: 0, 1 或 2。日誌顯示模式。 0 = 安靜模式, 1 = 進度條, 2 = 每輪一行。
  • callbacks: 一系列的 keras.callbacks.Callback 實例。一系列能夠在訓練時使用的回調函數。詳見 callbacks
  • validation_split: 在 0 和 1 之間浮動。用做驗證集的訓練數據的比例。模型將分出一部分不會被訓練的驗證數據,並將在每一輪結束時評估這些驗證數據的偏差和任何其餘模型指標。驗證數據是混洗以前 xy 數據的最後一部分樣本中。
  • validation_data: 元組 (x_val,y_val) 或元組 (x_val,y_val,val_sample_weights),用來評估損失,以及在每輪結束時的任何模型度量指標。模型將不會在這個數據上進行訓練。這個參數會覆蓋 validation_split
  • shuffle: 布爾值(是否在每輪迭代以前混洗數據)或者 字符串 (batch)。batch 是處理 HDF5 數據限制的特殊選項,它對一個 batch 內部的數據進行混洗。當 steps_per_epochNone 時,這個參數無效。
  • class_weight: 可選的字典,用來映射類索引(整數)到權重(浮點)值,用於加權損失函數(僅在訓練期間)。這可能有助於告訴模型 「更多關注」來自表明性不足的類的樣本。
  • sample_weight: 訓練樣本的可選 Numpy 權重數組,用於對損失函數進行加權(僅在訓練期間)。您能夠傳遞與輸入樣本長度相同的平坦(1D)Numpy 數組(權重和樣本之間的 1:1 映射),或者在時序數據的狀況下,能夠傳遞尺寸爲 (samples, sequence_length) 的 2D 數組,以對每一個樣本的每一個時間步施加不一樣的權重。在這種狀況下,你應該確保在 compile() 中指定 sample_weight_mode="temporal"
  • initial_epoch: 開始訓練的輪次(有助於恢復以前的訓練)。
  • steps_per_epoch: 在聲明一個輪次完成並開始下一個輪次以前的總步數(樣品批次)。使用 TensorFlow 數據張量等輸入張量進行訓練時,默認值 None 等於數據集中樣本的數量除以 batch 的大小,若是沒法肯定,則爲 1。
  • validation_steps: 只有在指定了 steps_per_epoch時纔有用。中止前要驗證的總步數(批次樣本)。

返回

一個 History 對象。其 History.history 屬性是連續 epoch 訓練損失和評估值,以及驗證集損失和評估值的記錄(若是適用)。數組

異常

  • RuntimeError: 若是模型從未編譯。
  • ValueError: 在提供的輸入數據與模型指望的不匹配的狀況下。

參考

[官方文檔]https://keras.io/zh/models/sequential/框架

本站公眾號
   歡迎關注本站公眾號,獲取更多信息