-
Notifications
You must be signed in to change notification settings - Fork 16
loss2
對於 Regression 問題,常用最小平方法當損失函數。
對於分類問題,常用 CrossEntropy + Softmax 當損失函數
- Softmax with cross-entropy (超讚)
- Backpropagation with softmax outputs and cross-entropy cost (讚)
- softmax 输出层数学原理推导
- Backpropagation with Softmax / Cross Entropy
ChatGPT:
Softmax 函數是一種常用於多分類任務的激活函數,在深度學習中被廣泛使用。它可以將一個長度為
其中,
為了進行反向傳播計算,需要計算 Softmax 函數對每個輸入
當
這個結果可以表示成矩陣形式,即
總結一下,Softmax 函數的反向傳播計算可以分為兩個步驟:首先,計算 Softmax 函數的輸出向量
ChatGPT:
CrossEntropy 是用來評估機器學習模型機率預測的好壞程度,通常用於分類問題中。
給定
其中
在反向傳播算法中,我們需要對 CrossEntropy 的損失函數求梯度,這樣才能進行參數的更新。假設
其中
最小平方法(Least Squares Method)是迴歸分析中常見的一種方法,用來求解線性回歸模型的參數。在求解參數時,通常使用的是最小二乘法(Ordinary Least Squares, OLS)。
最小二乘法的基本思想是:將所有觀測點到回歸直線的距離平方和最小化,即:
其中
最小二乘法中的模型參數可以通過求解以下方程組得到:
其中
反傳遞(backpropagation)是一種用於多層神經網絡中的參數更新算法,通常用於解決回歸和分類問題。在反傳遞算法中,通過計算損失函數對欲求解參數的偏導數進行階段性反向傳播,以獲得損失函數對於每個欲求解參數的梯度信息,進而使用梯度下降等優化算法對參數進行更新。
對於線性回歸問題,我們可以將最小二乘法的求解過程看作是一種反傳遞算法,其中回歸係數就是神經網絡中的權重參數。
最小二乘法的參數更新規則可以表示為:
其中
根據最小二乘法的定義,損失函數為:
對
其中
因此,最小二乘法的反傳遞公式(參數更新規則)可以表示為:
其中