聚類 之前的課程中我們學(xué)習(xí)的都是監(jiān)督學(xué)習(xí)相關(guān)的算法,現(xiàn)在來開始看非監(jiān)督學(xué)習(xí)寺惫。非監(jiān)督學(xué)習(xí)相對(duì)于監(jiān)督非學(xué)習(xí)來看,其使用的是未標(biāo)記的訓(xùn)練集而監(jiān)督學(xué)習(xí)的...

聚類 之前的課程中我們學(xué)習(xí)的都是監(jiān)督學(xué)習(xí)相關(guān)的算法,現(xiàn)在來開始看非監(jiān)督學(xué)習(xí)寺惫。非監(jiān)督學(xué)習(xí)相對(duì)于監(jiān)督非學(xué)習(xí)來看,其使用的是未標(biāo)記的訓(xùn)練集而監(jiān)督學(xué)習(xí)的...
優(yōu)化目標(biāo) 之前的課程有學(xué)習(xí)過Logistic回歸的假設(shè)函數(shù):其圖像如下: 從圖像可以看出册倒,如果的話,那么我們希望磺送,那么;如果的話驻子,那么我們希望,...
確定執(zhí)行的優(yōu)先級(jí) 我們已經(jīng)學(xué)習(xí)過一些機(jī)器學(xué)習(xí)的算法册着,那么如何設(shè)計(jì)一個(gè)機(jī)器學(xué)習(xí)系統(tǒng)呢拴孤,課程中舉了一個(gè)垃圾郵件分類器的例子脾歧,例子比較簡(jiǎn)單這里就不再贅...
評(píng)估假設(shè) 我們之前已經(jīng)學(xué)習(xí)過一些機(jī)器學(xué)習(xí)的算法甲捏,現(xiàn)在我們來談?wù)勅绾卧u(píng)估算法學(xué)習(xí)得到的假設(shè)。當(dāng)發(fā)現(xiàn)預(yù)測(cè)的結(jié)果和實(shí)際的數(shù)據(jù)有誤差的時(shí)候鞭执,我們需要進(jìn)行...
直觀感受反向傳播的概念 上篇文章講述了神經(jīng)網(wǎng)絡(luò)的反向傳播算法的基本概念司顿,現(xiàn)在來詳細(xì)的對(duì)此算法進(jìn)行一些講解⌒址模回憶一下神經(jīng)網(wǎng)絡(luò)的代價(jià)函數(shù): 如果我們...
代價(jià)函數(shù) 在神經(jīng)網(wǎng)絡(luò)中大溜,我們需要定義一些新的參數(shù)來表示代價(jià)函數(shù)。 L = total number of layers in the netwo...
本文將會(huì)介紹一種叫“神經(jīng)網(wǎng)絡(luò)”(Neural Network)的機(jī)器學(xué)習(xí)算法估脆。 非線性假設(shè) 我們之前已經(jīng)學(xué)習(xí)過線性回歸和邏輯回歸算法了钦奋,為什么還...
概念 假設(shè)我們有一組數(shù)據(jù)集如下圖所示: 左邊的圖中,我們假設(shè)疙赠,與數(shù)據(jù)集進(jìn)行比較發(fā)現(xiàn)此函數(shù)和數(shù)據(jù)的擬合度并不是很高付材,先然數(shù)據(jù)并不是呈現(xiàn)一條直線的形...
回歸函數(shù) 在邏輯回歸模型中我們不能再像之前的線性回歸一樣使用相同的代價(jià)函數(shù),否則會(huì)使得輸出的結(jié)果圖像呈現(xiàn)波浪狀圃阳,也就是說不再是個(gè)凸函數(shù)厌衔。代價(jià)函數(shù)...
之前的文章中我們討論過關(guān)于線性回歸的問題,現(xiàn)在我們來學(xué)習(xí)一下捍岳,當(dāng)預(yù)測(cè)的變量y為離散值時(shí)候的分類問題富寿。 分類 下面給出幾個(gè)分類的例子: 郵件: 垃...