深度學習入門筆記(一)

單個神經元網絡 簡化表示 正向傳播:W*X+B=y W,B爲參數,X爲樣本值,y爲預測值,Y爲標籤值 反向傳播:根據差值標籤值Y-預測值y,對W和B進行相應的調整。 循環往復進行 softmax分類算法 得出分別爲y1,y2,y3的概率 tensorflow代碼:tf.nn.softmax(logits,name=None) 損失函數(即標註中差值的計算) 均值平方差 適用範圍:輸入爲實數,無界的
相關文章
相關標籤/搜索