(BP進階2)學習和實現(xiàn)BP神經(jīng)網(wǎng)絡

上午說到了BP神經(jīng)網(wǎng)絡,現(xiàn)在就把神經(jīng)網(wǎng)絡的具體實現(xiàn)做一下簡單的解析。
BP的實現(xiàn)原理可以參考這里:http://blog.csdn.net/u013007900/article/details/50118945
在上次的講解中,我們說到了

可以假設乎婿,

那么

yj表示神經(jīng)元j的輸出,函數(shù)f稱為激活函數(shù) ( Activation Function )或轉(zhuǎn)移函數(shù) ( Transfer Function ) ,net'j(t)稱為凈激活(net activation)夺刑。 若將閾值看成是神經(jīng)元j的一個輸入x0的權重w0j,則上面的式子可以簡化為:

接下來開始利用該式子簡要論述BP實現(xiàn)的原理:

我們假設一個ANN的拓撲結(jié)構是比較常見的三層拓撲

可以看出分别,該拓撲結(jié)構只包含一個輸入層遍愿,一個輸出層,一個隱藏層茎杂,可以假設輸入層的權值數(shù)是Wjk错览,隱藏層的權值數(shù)是Vij,dk為預期的輸出值煌往,Ok是實際經(jīng)計算得出的輸出值倾哺,當實際計算值與預期期望值不同時轧邪,存在誤差E,定義如下:

將以上誤差定義式展開至隱層羞海,有

進一步展開至輸入層忌愚,有

由上式可以看出,網(wǎng)絡輸入誤差是各層權值ωjκ却邓、υij的函數(shù)硕糊,因此調(diào)整權值可改變誤差 E。 顯然腊徙,調(diào)整權值的原則是使誤差不斷減小简十,因此應使權值與誤差的梯度下降成正比。
故訓練一個BP神經(jīng)網(wǎng)絡撬腾,實際上就是調(diào)整網(wǎng)絡的權重和偏置這兩個參數(shù)螟蝙,BP神經(jīng)網(wǎng)絡的訓練過程分兩部分:
前向傳輸,逐層波浪式的傳遞輸出值民傻;
逆向反饋胰默,反向逐層調(diào)整權重和偏置;

到此漓踢,我們已經(jīng)大致明白了神經(jīng)網(wǎng)絡的訓練過程牵署,但是怎么進行訓練的實現(xiàn)和網(wǎng)絡的使用呢?
在我看來喧半,代碼實現(xiàn)的關鍵步驟只有3步:
1.創(chuàng)建網(wǎng)絡(create函數(shù))
2.訓練網(wǎng)絡(train函數(shù))
3.實現(xiàn)網(wǎng)絡(predict函數(shù))

當然奴迅,一個網(wǎng)絡訓練好后可以將其保存為xml文件,下次再次使用時只需要讀取該xml文件就可以得到上次訓練過的神經(jīng)網(wǎng)絡了挺据,因此半沽,又可以分為兩步:
1)網(wǎng)絡的創(chuàng)建:
1.創(chuàng)建網(wǎng)絡(create函數(shù))
2.訓練網(wǎng)絡(train函數(shù))
3.保存網(wǎng)絡(save函數(shù))
2)網(wǎng)絡使用
1.讀取網(wǎng)絡(load函數(shù))
2.實現(xiàn)網(wǎng)絡(predict函數(shù))
當然,如果不想保存該網(wǎng)絡的話也可以訓練好直接使用的吴菠。

實現(xiàn)網(wǎng)絡的訓練首先需要準備好兩組數(shù)據(jù)者填,分別是:樣本數(shù)組和樣本標記數(shù)組,拿上次的兩個數(shù)相與的例子來說做葵,樣本數(shù)組即為:{{0占哟,0},{0酿矢,1}榨乎,{1,0}瘫筐,{1蜜暑,1}},而樣本標記數(shù)組則是每個樣本的結(jié)果分類策肝,共有4組數(shù)據(jù)肛捍,每組數(shù)據(jù)的結(jié)果都有2種可能隐绵,四組數(shù)據(jù)的輸出結(jié)果是0,0拙毫,0依许,1,那么缀蹄,標記樣本數(shù)組則可以初始化為: { {1,0}, {1,0}, {1,0}, {0,1} }需要注意的是峭跳,兩個樣本都是由Mat類型儲存,且數(shù)據(jù)類型都定義為CV_32FC1缺前。

因此如果需要就該題進行BP神經(jīng)系統(tǒng)的訓練蛀醉,可以初始化樣本數(shù)組和標記數(shù)組如下:

float labels[4][2] = { {1,0}, {1,0}, {1,0}, {0,1} };
Mat labelsMat(4,2, CV_32FC1, labels);
float trainingData[4][2] = { { 0, 0 }, { 0, 1 }, { 1, 0 }, { 1, 1 } };
Mat trainingDataMat(4, 2, CV_32FC1, trainingData);

在理解了以上講解,那么進行神經(jīng)網(wǎng)絡的搭建也就簡單得多了衅码,我們還拿這個簡單的例子來進行分析:

創(chuàng)建神經(jīng)網(wǎng)絡

首先滞欠,這組數(shù)據(jù)的每組輸入數(shù)據(jù)有兩組,故輸入層的感知器有兩個肆良,輸出的數(shù)組每組也有兩個,故輸出層感知器個數(shù)為2逸绎,隱藏層一般情況下都有一到兩個惹恃,但是在本題中由于不需要隱藏層就可以解決,故無需用到隱藏層棺牧,所以該ANN共有兩層:輸入層(兩個感知器)和輸出層(兩個感知器)巫糙,(但是按照邏輯來講,建立隱藏層以后仍舊是可以得到想要的答案的)創(chuàng)建神經(jīng)網(wǎng)絡的函數(shù)可以寫為:

CvANN_MLP bp;
Mat layerSizes = (Mat_<int>(1, 2) <<2,2); 
bp.create(layerSizes, CvANN_MLP::SIGMOID_SYM);

CvANN_MLP::SIGMOID_SYM :選用sigmoid作為激勵函數(shù)颊乘,即上次所說的S形函數(shù)(包括單極性S形函數(shù)和雙極性S形函數(shù))
除此之外参淹,BP所使用的激勵函數(shù)還有:
CvANN_MLP::GAUSSIAN:GAUSS函數(shù)
CvANN_MLP::IDENTITY:階躍函數(shù)。

訓練神經(jīng)網(wǎng)絡

在進行神經(jīng)網(wǎng)絡的訓練時乏悄,我們就需要用到實現(xiàn)進行初始化好的樣本數(shù)組和標記數(shù)組了浙值,為了方便在圖像中顯示,我們將樣本數(shù)組:{{0檩小,0}开呐,{0,1}规求,{1筐付,0},{1阻肿,1}}瓦戚,進行擴大:{ { 50, 50 }, { 50, 100 }, { 100, 50 }, { 100, 100 } },擴大后直接調(diào)用訓練函數(shù):

bp.train(trainingDataMat, labelsMat, Mat(), Mat(), params); 

關于train函數(shù)的參數(shù):

int CvANN_MLP::train(constMat& inputs, constMat& outputs, 
constMat& sampleWeights, constMat& sampleIdx=Mat(), 
CvANN_MLP_TrainParams params=CvANN_MLP_TrainParams(), intflags=0 );```
1) inputs:輸入矩陣丛塌。它存儲了所有訓練樣本的特征较解。假設所有樣本總數(shù)為nSamples畜疾,而我們提取的特征維數(shù)為ndims,
則inputs是一個nSamples?ndims的矩陣哨坪,每個樣本的特征占一行庸疾。
2) outputs:輸出矩陣。我們實際在訓練中当编,我們知道每個樣本所屬的種類届慈,假設一共有nClass類。那么我們將outputs設置為
一個nSample*nClass列的矩陣忿偷,每一行表示一個樣本的預期輸出結(jié)果金顿,該樣本所屬的那類對應的列設置為1,其他都為0鲤桥。
比如我們需要識別0-9這10個數(shù)字揍拆,則總的類數(shù)為10類,那么樣本數(shù)字“3”的預期輸出為[0,0,1,0,0,0,0,0,0,0];
3) sampleWeights:一個在使用RPROP方法訓練時才需要的數(shù)據(jù)茶凳,如果使用的是BACKPROP方法則不設置嫂拴,直接設置為Mat()即可。
4) sampleIdx:相當于一個遮罩贮喧,它指定哪些行的數(shù)據(jù)參與訓練筒狠。如果設置為Mat(),則所有行都參與箱沦。
5) params:這個在剛才已經(jīng)說過了辩恼,是訓練相關的參數(shù)。
其中谓形,params是CvANN_MLP_TrainParams類型的參數(shù)灶伊,是經(jīng)過初始化的,訓練相關的參數(shù)

CvANN_MLP_TrainParams params;  
params.train_method=CvANN_MLP_TrainParams::BACKPROP;  
params.bp_dw_scale=0.1;  
params.bp_moment_scale=0.1;  
//params.train_method=CvANN_MLP_TrainParams::RPROP;  
//params.rp_dw0 = 0.1;   
//params.rp_dw_plus = 1.2;   
//params.rp_dw_minus = 0.5;  
//params.rp_dw_min = FLT_EPSILON;   
//params.rp_dw_max = 50.;  
以上是其初始化參數(shù)方法寒跳,可以看出聘萨,共有兩種初始化方法,其中BACKPROP有兩個初始化參數(shù)童太,RPROP有五個初始化參數(shù)匈挖, BACKPROP表示使用back-propagation的訓練方法,RPROP即最簡單的propagation訓練方法康愤。Opencv的神經(jīng)網(wǎng)絡實現(xiàn)了MLP算法儡循,具體為BACKPROP算法和RPROP算法兩種,BACKPROP算法使用的是在線方法征冷,RPROP算法使用的是批量方法择膝。

在這里我們使用第一種,即BACKPROP方法检激。
#保存和加載神經(jīng)網(wǎng)絡
到此神經(jīng)網(wǎng)絡已經(jīng)搭建完成了肴捉,我們可以選擇

bp.save("name.xml");

保存神經(jīng)網(wǎng)絡腹侣,保存后直接退出或者是繼續(xù)使用該網(wǎng)絡,但是保存后下次使用該神經(jīng)網(wǎng)絡就不必再訓練了齿穗,只需要使用函數(shù):

bp.load("name.xml");

即可傲隶。
#使用神經(jīng)網(wǎng)絡
圖像進行特征提取,把它保存在sampleMat里窃页,通過調(diào)用predict函數(shù)跺株,我們得到一個輸出向量,它是一個1*nClass的行向量脖卖,(nClass是可能出現(xiàn)的結(jié)果種類數(shù)目)

其中每一列說明它與該類的相似程度(0-1之間)乒省,也可以說是置信度。我們只用對output求一個最大值畦木,就可得到結(jié)果袖扛。
這個函數(shù)的返回值是一個無用的float值,可以忽略十籍。
在本例子中蛆封,由于輸入層的感知器數(shù)目為2,是圖像的坐標勾栗,那么惨篱,在圖像的每一個坐標都去進行分類,得到的是 輸出層感知器數(shù)目的個數(shù)個輸出矩陣械姻,每個數(shù)代表該種結(jié)果的符合率
如:將一個坐標 帶入后p[0]==0.1,p[1]==0.5,那么机断,取擬合率較大的楷拳,訓練結(jié)果是1。

for (int i = 0; i < image.rows; ++i){
for (int j = 0; j < image.cols; ++j){
Mat sampleMat = (Mat_<float>(1, 2) << i, j);
Mat responseMat;
bp.predict(sampleMat, responseMat);
float* p = responseMat.ptr<float>(0);
if (p[0] > p[1]){
image.at<Vec3b>(i,j) = green;
}
else{
image.at<Vec3b>(i,j) = blue;
}
}
}

把所有代碼總結(jié)起來:

include <opencv2/core/core.hpp>

include <opencv2/highgui/highgui.hpp>

include <opencv2/ml/ml.hpp>

include <iostream>

include <string>

using namespace std;
using namespace cv;
int main()
{
CvANN_MLP bp;
CvANN_MLP_TrainParams params;
params.train_method = CvANN_MLP_TrainParams::BACKPROP;
params.bp_dw_scale = 0.1;
params.bp_moment_scale = 0.1;
float labels[4][2] = { {1,0}, {1,0}, {1,0}, {0,1} };
Mat labelsMat(4,2, CV_32FC1, labels);
float trainingData[4][2] = { { 50, 50 }, { 50, 100 }, { 100, 50 }, { 100, 100 } };
Mat trainingDataMat(4, 2, CV_32FC1, trainingData);
Mat layerSizes = (Mat_<int>(1, 2) <<2,2);
bp.create(layerSizes, CvANN_MLP::SIGMOID_SYM);
bp.train(trainingDataMat, labelsMat, Mat(), Mat(), params);
int width = 150, height =150;
Mat image = Mat::zeros(height, width, CV_8UC3);
Vec3b green(0, 255, 0), blue(255, 0, 0);
// Show the decision regions
for (int i = 0; i < image.rows; ++i){
for (int j = 0; j < image.cols; ++j){
Mat sampleMat = (Mat_<float>(1, 2) << i, j);
Mat responseMat;
bp.predict(sampleMat, responseMat);
float* p = responseMat.ptr<float>(0);
if (p[0] > p[1]){
image.at<Vec3b>(i,j) = green;
}
else{
image.at<Vec3b>(i,j) = blue;
}
}
}
int thickness = -1;
int lineType = 8;
circle(image, Point(50, 50), 5, Scalar(255, 255, 255), thickness, lineType);
circle(image, Point(50, 100), 5, Scalar(255, 255, 255), thickness, lineType);
circle(image, Point(100, 50), 5, Scalar(255, 255, 255), thickness, lineType);
circle(image, Point(100, 100), 5, Scalar(0,0,0), thickness, lineType);
imwrite("result.png", image); // save the image
imshow("BP Simple Example", image); // show it to the user
waitKey(0);
return 0;
}

運行結(jié)果:![](http://upload-images.jianshu.io/upload_images/1825077-4e39454dc6c5cc68.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
最后編輯于
?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末吏奸,一起剝皮案震驚了整個濱河市欢揖,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌奋蔚,老刑警劉巖她混,帶你破解...
    沈念sama閱讀 218,858評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異泊碑,居然都是意外死亡坤按,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,372評論 3 395
  • 文/潘曉璐 我一進店門馒过,熙熙樓的掌柜王于貴愁眉苦臉地迎上來臭脓,“玉大人,你說我怎么就攤上這事腹忽±蠢郏” “怎么了砚作?”我有些...
    開封第一講書人閱讀 165,282評論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長嘹锁。 經(jīng)常有香客問我葫录,道長,這世上最難降的妖魔是什么领猾? 我笑而不...
    開封第一講書人閱讀 58,842評論 1 295
  • 正文 為了忘掉前任米同,我火速辦了婚禮,結(jié)果婚禮上瘤运,老公的妹妹穿的比我還像新娘窍霞。我一直安慰自己,他們只是感情好拯坟,可當我...
    茶點故事閱讀 67,857評論 6 392
  • 文/花漫 我一把揭開白布但金。 她就那樣靜靜地躺著,像睡著了一般郁季。 火紅的嫁衣襯著肌膚如雪冷溃。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,679評論 1 305
  • 那天梦裂,我揣著相機與錄音似枕,去河邊找鬼。 笑死年柠,一個胖子當著我的面吹牛凿歼,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播冗恨,決...
    沈念sama閱讀 40,406評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼答憔,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了掀抹?” 一聲冷哼從身側(cè)響起虐拓,我...
    開封第一講書人閱讀 39,311評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎傲武,沒想到半個月后蓉驹,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,767評論 1 315
  • 正文 獨居荒郊野嶺守林人離奇死亡揪利,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,945評論 3 336
  • 正文 我和宋清朗相戀三年态兴,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片疟位。...
    茶點故事閱讀 40,090評論 1 350
  • 序言:一個原本活蹦亂跳的男人離奇死亡诗茎,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情敢订,我是刑警寧澤王污,帶...
    沈念sama閱讀 35,785評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站楚午,受9級特大地震影響昭齐,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜矾柜,卻給世界環(huán)境...
    茶點故事閱讀 41,420評論 3 331
  • 文/蒙蒙 一阱驾、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧怪蔑,春花似錦里覆、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,988評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至弓坞,卻和暖如春隧甚,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背渡冻。 一陣腳步聲響...
    開封第一講書人閱讀 33,101評論 1 271
  • 我被黑心中介騙來泰國打工戚扳, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人族吻。 一個月前我還...
    沈念sama閱讀 48,298評論 3 372
  • 正文 我出身青樓帽借,卻偏偏與公主長得像,于是被迫代替她去往敵國和親超歌。 傳聞我的和親對象是個殘疾皇子砍艾,可洞房花燭夜當晚...
    茶點故事閱讀 45,033評論 2 355

推薦閱讀更多精彩內(nèi)容

  • 芙蓉又長出花蕾, 在靜候佳人握础, 我很是歡喜辐董。 蚜蟲在花蕾上聯(lián)歡悴品, 活得很舒坦禀综, 我有些擔心!
    panjw閱讀 207評論 0 3
  • 給我 一望無垠的田野 我要把家安在那里 除除草 耕耕田 種下春天和夏天 我要把樹栽在上面 刻下時間和容顏 我要把你...
    倫小讓閱讀 240評論 4 3
  • 1 不知道為什么苔严, 這些日子的脾氣越來越暴躁定枷,動不動在家就發(fā)火, 本來很小的一個事情届氢,小聲說不了一兩句欠窒,馬上抬高聲...
    清風明月照牡丹閱讀 279評論 0 2
  • 轉(zhuǎn)自http://www.mamicode.com/info-detail-877996.html 一、網(wǎng)絡各個協(xié)...
    在這藍色天空下閱讀 18,121評論 7 48