[Coursera] Machine Learning ex3 多元分類和神經(jīng)網(wǎng)絡(luò) 步驟分析

第四周的主要內(nèi)容是神經(jīng)網(wǎng)絡(luò)囊陡,個人覺得講得比較跳开皿,所以補充幾篇文章加深一下理解:
神經(jīng)網(wǎng)絡(luò)淺講:從神經(jīng)元到深度學(xué)習(xí)
【機(jī)器學(xué)習(xí)】神經(jīng)網(wǎng)絡(luò)實現(xiàn)異或(XOR)

這里還有一個特別棒的YouTube視頻珠洗,加上動畫特別有助于理解抽象的矩陣:
But what is a Neural Network? | Deep learning, chapter 1

But what *is* a Neural Network?

先提一下或渤,

  • 本人設(shè)計背景感猛,沒學(xué)過微積分矩父,這篇只當(dāng)是筆記铣卡,有不準(zhǔn)確或不足之處請大家在下方評論。
  • 本文是步驟分析偏竟,所以會把答案寫出來,還沒有做作業(yè)的請繞道敞峭。

ex3 的作業(yè)的訓(xùn)練集5000個20 x 20-pixel 的手寫數(shù)字踊谋。我們將數(shù)據(jù)加載:

% Load saved matrices from file
load('ex3data1.mat');
% The matrices X and y will now be in your MATLAB environment

我們可以看到 X 是5000 x 400 的一個矩陣,每一行是一個數(shù)字每像素的灰度值旋讹。


X and y
Visualizing the data

這周的作業(yè)內(nèi)容為四個function殖蚕,完成后就可以識別上圖的手寫數(shù)字啦

  • Regularized logistic regression - 30
  • One-vs-all classifier training - 20
  • One-vs-all classifier prediction - 20
  • Neural network prediction function - 30

lrCostFunction

第一個lrCostFunction.m 文件看著無比眼熟,沒錯這個和上周的costfunctionReg.m 應(yīng)該是一模一樣的沉迹。只不過 ex3 要求用向量化也就是矩陣表達(dá)睦疫。這個課程默認(rèn)是 ex2 用loop, ex3 用向量。如果 ex2 就使用了向量鞭呕,那 ex3 的第一個作業(yè)就很輕松了(很郁悶為什么不早點給向量化的解釋蛤育,ex2 就省得我自己算那么久了)。

Vectorize cost function
Vectorize the gradient

上面代價函數(shù)的向量化很好理解葫松,主要是 vectorize the gradient 關(guān)于 X 的轉(zhuǎn)置有點繞人瓦糕。

邏輯回歸正則化就是根據(jù)公式在后面加上 lambda blabla... 不過求偏導(dǎo)數(shù)的時候要注意theta0 不需要正則化,所以要單獨拿出來腋么。

Vectorize regularized logistic regression
h = sigmoid(X * theta)
cost = 1/m * sum(-y .* log(h) - (1-y) .* log(1-h)); % 這里是 .* 而非 * 是因為將矩陣?yán)锩總€元素相乘而非矩陣相乘
regCost = lambda / (2*m) * sum(theta(2:end) .^ 2) % 排除theta(1)
J = cost + regCost; 

grad = 1/m * X' * (h - y) % 偏導(dǎo)數(shù)向量化看 Vectorize the gradient 那張圖
temp = lamba / m * theta; 
temp(1) = 0; 
grad = grad + temp;

One-vs-all

在第四周的視頻里咕娄,我們了解到One vs all 的基本概念就是把多個分類轉(zhuǎn)化為二元分類的問題。比如第一個判斷是不是0珊擂,第二個判斷是不是1... OneVsAll 函數(shù)就是求10個類的參數(shù)θ值圣勒。

這里我們要用到 fmincg 函數(shù),和上一個練習(xí)的 fminuc 差不多摧扇,可以返回代價函數(shù)最小化的參數(shù)θ和相對應(yīng)的cost. fmincg 更適合參數(shù)較多的情況圣贸。

% Set initial theta 
initial_theta = zeros(n + 1, 1);
% Set options for fmincg 按照示例寫就行
% 這里用梯度下降法,最大迭代次數(shù)50次
options = optimset('GradObj', 'on', 'MaxIter', 50);

for c = 1: num_labels 
    % Run fmincg to obtain the optimal theta 
    all_theta(c,:) = fmincg(@(t)(lrCostFunction(t, X, (y == c), lambda)), initial_theta, options);
end

在ex3.mlx 里設(shè)置一下 label 數(shù)量和 lambda 值

num_labels = 10; % 10 labels, from 1 to 10 
lambda = 0.1;
[all_theta] = oneVsAll(X, y, num_labels, lambda);

all_theta 是一個 10x401的矩陣扳剿,每行是每個類(本練習(xí)是0, 1, 2, 3 .... 9)的theta值旁趟。

all_theta

Predict OneVsAll

有了這一堆 theta 值,我們就有了訓(xùn)練好的分類器庇绽,接下來可以預(yù)測一個圖片是什么數(shù)字了锡搜。我們可以先算出該圖片為0, 1, 2, 3 ... 的概率,概率最大的即判斷為這個數(shù)瞧掺。

這里用sigmoid(X * all_theta') 計算概率耕餐。X是一個5000x401的矩陣,all_theta' 是一個401x10的矩陣辟狈,相乘后為5000x10的矩陣肠缔,每行是這個圖分別為1, 2, 3, 4, .... 0 的概率夏跷。我們?nèi)∶啃械淖畲笾挡⑴袛嗥錇樵擃悇e。

我自己腦子不太轉(zhuǎn)得過來明未,先看看 X * all_theta 的結(jié)果:

B = [ones(m, 1) X] * all_theta; 
B(1:4, :) % 提取前4行的結(jié)果
X * all_theta' 前四行

再看看加了sigmoid

C = sigmoid([ones(m, 1) X] * all_theta); 
C(1:4, :) % 提取前4行的結(jié)果
sigmoid(X * all_theta') 前四行:其中每個元素都是介于0和1之間的

作業(yè)提示可以用 max 函數(shù)返回最大值槽华。如果 A 是一個向量,max(A) 返回A中最大元素趟妥,如果 A 是矩陣猫态,max(A) 會將每一列作為一個向量,返回一個行向量披摄,該向量的第 i 個元素是矩陣A 第 i 列上的最大值(參考:matlab 中max函數(shù)用法)亲雪。

max function

Predict OneVsAll 的代碼只有短短幾行:

function p = predictOneVsAll(all_theta, X)
m = size(X, 1);
num_labels = size(all_theta, 1);
% p是需要返回的結(jié)果
p = zeros(size(X, 1), 1);
% 在X前加一列1
X = [ones(m, 1) X];
[x, p] = max(sigmoid(X * all_theta'), [], 2);

這里p返回的是行號也就是類。

測試一下準(zhǔn)確率疚膊,為95.04000.

pred = predictOneVsAll(all_theta, X);
fprintf('\nTraining Set Accuracy: %f\n', mean(double(pred == y)) * 100);

Predict

下一個部分就是將剛剛學(xué)到的多元分類運用到神經(jīng)網(wǎng)絡(luò)中啦义辕!最后一個其實不難,主要工作是建立一個三層的神經(jīng)網(wǎng)絡(luò)寓盗。而且作業(yè)里已經(jīng)有了Theta1 和 Theta2, 分別是 25x401 和 10 x 26 的矩陣(Theta矩陣的大小為 s(j+1) x s(j) + 1)灌砖。先回顧一下模型:

Model Representation.png

a1就是在 X 前加一列1,a2 為用Theta1計算出的第二層的值贞让。

a1 = [ones(m, 1) X]; % 輸入層
a2 = [ones(m,1) sigmoid(a1 * Theta1')]; % 隱藏層
[x, p] = max(sigmoid(a2 * Theta2'), [], 2); % 輸出層

在 main 函數(shù)里看一下準(zhǔn)確率大概是97.5%.

pred = predict(Theta1, Theta2, X);
fprintf('\nTraining Set Accuracy: %f\n', mean(double(pred == y)) * 100);

最后一段可以隨機(jī)挑選某個digit 進(jìn)行預(yù)測周崭,非常有趣

Predict digit
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市喳张,隨后出現(xiàn)的幾起案子续镇,更是在濱河造成了極大的恐慌,老刑警劉巖销部,帶你破解...
    沈念sama閱讀 216,372評論 6 498
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件摸航,死亡現(xiàn)場離奇詭異,居然都是意外死亡舅桩,警方通過查閱死者的電腦和手機(jī)酱虎,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,368評論 3 392
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來擂涛,“玉大人读串,你說我怎么就攤上這事∪雎瑁” “怎么了恢暖?”我有些...
    開封第一講書人閱讀 162,415評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長狰右。 經(jīng)常有香客問我杰捂,道長,這世上最難降的妖魔是什么棋蚌? 我笑而不...
    開封第一講書人閱讀 58,157評論 1 292
  • 正文 為了忘掉前任嫁佳,我火速辦了婚禮挨队,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘蒿往。我一直安慰自己盛垦,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 67,171評論 6 388
  • 文/花漫 我一把揭開白布熄浓。 她就那樣靜靜地躺著情臭,像睡著了一般。 火紅的嫁衣襯著肌膚如雪赌蔑。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,125評論 1 297
  • 那天竟秫,我揣著相機(jī)與錄音娃惯,去河邊找鬼。 笑死肥败,一個胖子當(dāng)著我的面吹牛趾浅,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播馒稍,決...
    沈念sama閱讀 40,028評論 3 417
  • 文/蒼蘭香墨 我猛地睜開眼皿哨,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了纽谒?” 一聲冷哼從身側(cè)響起证膨,我...
    開封第一講書人閱讀 38,887評論 0 274
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎鼓黔,沒想到半個月后央勒,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,310評論 1 310
  • 正文 獨居荒郊野嶺守林人離奇死亡澳化,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,533評論 2 332
  • 正文 我和宋清朗相戀三年崔步,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片缎谷。...
    茶點故事閱讀 39,690評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡井濒,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出列林,到底是詐尸還是另有隱情瑞你,我是刑警寧澤,帶...
    沈念sama閱讀 35,411評論 5 343
  • 正文 年R本政府宣布席纽,位于F島的核電站捏悬,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏润梯。R本人自食惡果不足惜过牙,卻給世界環(huán)境...
    茶點故事閱讀 41,004評論 3 325
  • 文/蒙蒙 一甥厦、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧寇钉,春花似錦刀疙、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,659評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至撵溃,卻和暖如春疚鲤,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背缘挑。 一陣腳步聲響...
    開封第一講書人閱讀 32,812評論 1 268
  • 我被黑心中介騙來泰國打工集歇, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人语淘。 一個月前我還...
    沈念sama閱讀 47,693評論 2 368
  • 正文 我出身青樓诲宇,卻偏偏與公主長得像,于是被迫代替她去往敵國和親惶翻。 傳聞我的和親對象是個殘疾皇子姑蓝,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,577評論 2 353

推薦閱讀更多精彩內(nèi)容