回歸定義
Regression 就是找到一個函數(shù) 驳庭,通過輸入特征
,輸出一個數(shù)值
衩藤。
模型步驟
- Step 1: 模型假設(shè)
- Step 2: 模型評估
- Step 3: 模型優(yōu)化
Step 1:模型假設(shè)
線性模型 Linear Model:
Step 2: 模型評估
損失函數(shù) Loss Function:
以線性模型為例:
Step 3: 模型優(yōu)化
找到使得損失函數(shù)最小的
-
最小二乘法: 計算可能極為復雜
Example
化簡, 得
-
梯度下降
Example 1:
- 隨機選取一個初始點
- 計算微分
, 判斷
移動方向
其中為學習率
- 大于0向右移動 (增加
)
- 小于0向左移動 (減少
)
- 大于0向右移動 (增加
- 計算微分
, 繼續(xù)更新
- ....
- 直至找到最低點
Example 2:
- 隨機選取
- 計算偏微分
,
, 根據(jù)學習率更新
- ....
- 直至找到最低點
- 隨機選取一個初始點
Gradient Decent
梯度下降面臨的挑戰(zhàn)
Gradient Decent Challenges
更復雜的模型
N次線性模型
過擬合問題
優(yōu)化:
- 融合不同參數(shù)的線性模型
- 加入更多特征
- 在損失函數(shù)中加入正則化項