DeepFM: A Factorization-Machine based Neural Network for CTR Prediction (2017)論文要點

論文連接: https://arxiv.org/pdf/1703.04247.pdfhtml

 

FM原理參考:函數

Factorization Machines with libFM 論文閱讀  http://www.javashuo.com/article/p-aknyuszs-mg.html編碼

GBDT,FM,FFM推導  http://www.javashuo.com/article/p-oxdtvpfy-mg.htmlhtm

 

類別型特徵one-hot編碼,連續型特徵直接表示或者離散化後one-hot編碼。blog

核心思想就是拿FM模型輸出的交叉項權重當作embedding使用,FM和Deep份量共用這個embedding。get

所以不用預訓練(由於總體訓練),不用特徵工程(由於FM),同時有低階和高階交互項(由於FM和NN)。it

 

評估:AUC,LogLoss(cross entropy)io

訓練快速pdf

激活函數:relu、tanh比sigmoid更經常使用;並且relu比tanh好(由於減小稀疏性)原理

Dropout: 0.6-0.9

Neurons per layer: 200-400

最優Hidden layer: 3

network shape: constant(等寬,「中規中矩」)

相關文章
相關標籤/搜索