1.2 神經網絡入門-神經元多輸出

1.2 神經元多輸出

  • 神經元-多輸出網絡

    處理二分類的問題,用一個神經元能夠解決,處理多分類的問題,加神經元就能夠了。這時候以前的w向量變成了矩陣函數

    image.png

  • 多輸出的例子編碼

    image.png

  • 二分類邏輯斯蒂迴歸模型的另外一種角度-歸一化3d

image.png

  • 多分類邏輯斯蒂迴歸模型的推導cdn

    image.png

  • 多分類邏輯斯蒂迴歸模型的例子blog

image.png

  • 目標函數(一般也被成爲損失函數)it

    • 衡量對數據的擬合程度io

    • 舉個例子class

      • (x1,y1) = ([10,3,9,20,....,4],1) 二分類問題,y1 可能等於0或者1,模型算出的機率大於0.5,就認爲是1這個類,小於0.5,就認爲是0這個類
      • y1 = Model(x1) = 0.8 假設模型算出來的機率值爲0.8
      • Loss = y1 - y1 = 0.2 調整神經網絡,就是調整model中的參數,使得y1 更大,Loss更小
    • 再多舉個多分類的問題神經網絡

      • (x1,y1) = ([10,3,9,0....4], 3)
      • y1 = Model(x1) = [0.1,0.2,0.25,04,0.05]
      • 3->[0,0,0,1,0] 數值到向量的變換叫作one-hot編碼
      • Loss = abs(y1- y1) = [0,0,0,1,0] - y1 = [0.1,0.2,0.25,0.6,0.05] = 1.2 整個向量相減獲得目標值
    • 平方差損失

      image.png

      先求出每一個數據的目標值(實數就直接相減再平方,向量就向量減法再計算向量平方值),而後求和全部目標值,再作平均

    • 交叉熵損失函數

      image.png

      這是個熵函數,就是用來衡量兩個分佈直接的差距的,因此他更適合去作多分類的損失函數

    • 調整參數使模型在訓練集上的損失函數最小, 這就覺得着model預測出來的結果和真實值的差距最小

相關文章
相關標籤/搜索