嘿哈锯玛!小y同學(xué)換個(gè)賬號(hào)來造作呀瓜浸!
心里一直揣著大牛Andrew NG的ML課程……半懂不懂汇歹,久久不能釋懷
今天腦袋一抽……翻墻Coursera走起!重新從第一周開始看起犁罩,天哪……1.5倍速刷了視頻齐蔽,感覺I can sail through it!
簡(jiǎn)單稍微寫一下第一周的:
What is ML?
Just Experience---E,task---T,performance measure ---P,就是在training set的基礎(chǔ)上床估,解決一個(gè)任務(wù)含滴,用p來測(cè)量任務(wù)完成得好不好,不好咋辦捏丐巫?從E上繼續(xù)學(xué)唄谈况!
然后呢,主要是supervised learning和unsupervised learning递胧,這倆啥區(qū)別咩碑韵,一個(gè)是how to do,另一個(gè)呢,是learn by itself缎脾。第一個(gè)從數(shù)據(jù)集里直接得出結(jié)論祝闻,包括classification 和regression,第二個(gè)呢……現(xiàn)在還沒太搞明白呢呢呢
Regression
先來單變量線性回歸滴,叫個(gè)linear regression with one variable
好幾個(gè)視頻講了個(gè)啥尼
3個(gè)公式吧:
1Hypothesis:hx=thet1+thet2X
2Cost function:J thet=1/2m求和(hxi-yi)^2
3Gradient decent:就是求出讓代價(jià)函數(shù)達(dá)到最小值時(shí)候的thet值咩
Thet1=thet1-a*1/mSUM(hxi-hi)
Thet2=thet2-a*1/mSUM(hxi-hi)xi
Thet好難打赊锚,還不知道對(duì)不對(duì)……
除去各種例子治筒,最核心的就是這個(gè)了叭……先假設(shè)函數(shù)然后求代價(jià)函數(shù)屉栓,然后用梯度下降算出最小值來……最后捏就得到算法了……