softmax迴歸+深度學習框架

softmax迴歸 a[l]=ez[l]/sum(ti) 訓練一個softmax分類器 深度學習框架 正交化 滿足和優化指標 訓練-開發-測試集劃分 什麼時候該改變開發——測試集和指標 貝葉斯最優誤差,貝葉斯最佳誤差或幝斯錯誤是理論最佳 可避免偏差 超過人的表現 改善模型的表現
相關文章
相關標籤/搜索