深度學習基礎

爲什麼在分類問題中 Loss 一般用交叉熵損失函數(cross entropy) 而不適用類似平方損失函數 交叉熵適合衡量兩個概率分佈的差異 爲什麼需要 非線性的激活函數 訓練誤差 (training error)和泛化誤差(generalization error)  雖然有很多因素可能導致這兩種擬合問題,在這裏我們重點討論兩個因素:模型複雜度和訓練數據集大小。 訓練數據集大小 影響欠擬合和過擬
相關文章
相關標籤/搜索