計算機視覺漫談(4)
學號:14020199025
姓名:徐銘晟
【嵌牛導讀】:上次我們粗略地談了談線性回歸算法太惠,今天這篇文章算上次文章的衍生。
【嵌牛鼻子】:監(jiān)督學習 線性回歸 圖像分類
【嵌牛正文】:
前篇文章肮帐,圍繞的線性回歸主要是關于一次方程的,這詞詳細講講多維的胚股。
在機器學習中庭再,這塊統(tǒng)稱為linear regression,這里截取PRML中的一幅圖詳細說明一下芒珠。
假設我們的樣本點是sin函數(shù)+高斯噪聲產(chǎn)生的桥狡,我們希望能通過這幾個樣本點,擬合這個函數(shù),從而得到較為準確的預測裹芝,我們可以利用之前談到的函數(shù)擬合方法
這是我們上次講的一階函數(shù)擬合部逮。當然我們可以仿照之前的方法,開展二階嫂易,三階甚至n階函數(shù)擬合兄朋。
利用三階的結果圖如下:
可以看到三階函數(shù)擬合叫好地擬合了我們的目標曲線。下面我們看一下高階函數(shù)擬合情況:
可以看到雖然高階使得樣本點完美地嵌入我們的曲線中怜械,但是這條曲線并不是我們需要的颅和。解決措施就是在后面加上正則項,有興趣的可以參考http://blog.csdn.net/liyuan123zhouhui/article/details/51882926缕允。在這里略微提一句峡扩,不同地正則項帶來的效果不同,比如一階會帶來sparse效果障本。
之前的n階擬合教届,這個n階方程也常常被稱為basia function。利用基函數(shù)擬合任意函數(shù)這塊哦的學科得涉及到泛函驾霜。在實際中案训,這個基函數(shù)也有別的選擇,詳見下表: