Dynamic Learning Neural Network 算法筆記

參考文獻(xiàn): A dynamic learning neural network for remote sensing applications

網(wǎng)絡(luò)模型

  • 以 MLP 為 framework 設(shè)計(jì)的
  • 可以有多個(gè)hidden layer(通常情況下小于3層)
  • 第i層只能作為第i+1層的輸入
1. 單個(gè)網(wǎng)絡(luò)節(jié)點(diǎn)模型.PNG
2. 單個(gè)節(jié)點(diǎn)的計(jì)算公式.PNG
符號(hào)解釋:
* h 為每一層單個(gè)節(jié)點(diǎn)的 total net input
* S() 為 activation function; 通常用 sigm 函數(shù)
3. 典型MLP網(wǎng)絡(luò)整體結(jié)構(gòu).PNG
h[i] = W[i]S(h[i-1]) + B[i] (for i = 1; i < p+1 )  

符號(hào)解釋:  
* 設(shè)有p層hidden layer
* W:每一層的權(quán)重矩陣
  B: 偏置矩陣  
  n: 每一層節(jié)點(diǎn)的數(shù)量
* input = S(h[0])
  output = S(h[p+1])  
* input_num = n[0]
  output_num = n[p+1]

4. 典型MLP網(wǎng)絡(luò)結(jié)構(gòu) notation 注記.PNG

Learning algorithm

  • BP learning algorithm
  • Polynomial basis function
  • Kalman filtering technique

BP(梯度下降法)

參考網(wǎng)址

目的

對(duì)權(quán)重進(jìn)行最優(yōu)化處理盏触,使得input和output的映射關(guān)系達(dá)到最優(yōu)
即:使得誤差率rms小于某個(gè)特定的值
基于本參考文獻(xiàn)舶得,BP算法只是用于展示后續(xù)算法develop的self-contained

Process

  1. 計(jì)算每一層每一個(gè)節(jié)點(diǎn)的hij
  2. 計(jì)算total error(rms) = sum(1/2(target - output)^2)
  3. 計(jì)算每一個(gè)權(quán)重的變化對(duì)于total error的影響
    即: total error 相較于每一個(gè)權(quán)重值的偏導(dǎo)數(shù)
  4. 跟新權(quán)重矩陣中的每一個(gè)權(quán)重值(包括偏置值):w' = w - (學(xué)習(xí)率*total error 相較于w的偏導(dǎo)數(shù))
  5. 重復(fù)1~4步驟,直到total error小于預(yù)設(shè)誤差率threshold
補(bǔ)充內(nèi)容:  
* 權(quán)重及偏置的初始值為小隨機(jī)數(shù);學(xué)習(xí)率為0~1之間
* 參考文獻(xiàn)內(nèi)有提供求解偏導(dǎo)數(shù)的recursive equations

PBF

目的

對(duì)每一層中每一個(gè)節(jié)點(diǎn)的S(hij)化簡(jiǎn)虹蓄,將 activation function 放入單個(gè)節(jié)點(diǎn)表達(dá)式中
將 MLP 網(wǎng)絡(luò)轉(zhuǎn)化成 complete 網(wǎng)絡(luò)
好處:當(dāng)為 complete network 時(shí),隱藏層的節(jié)點(diǎn)權(quán)重不再為必須的拼缝,只需要輸出層的節(jié)點(diǎn)權(quán)重向量即可

Process

5. 假設(shè)S(hij)可以展開(kāi)為上式.PNG
符號(hào)解釋?zhuān)? 
* Dij[k]: 代表誤差率最優(yōu)情況下的多項(xiàng)式系數(shù)  
* P(i,j): 由relative rms計(jì)算得到个扰,P(i,j)會(huì)隨著rms的下降而增大
6. express the activation function within the network.PNG
6.1.PNG
6.2.PNG
符號(hào)解釋?zhuān)? 
* x: (M*1)轉(zhuǎn)置的矩陣  
* M:0到p層每層節(jié)點(diǎn)的數(shù)量和+1(即:輸入層節(jié)點(diǎn)和 + 隱藏層節(jié)點(diǎn)和 + 1)  
  實(shí)驗(yàn)例子中 M = 123  
* C: (M*L)的相關(guān)矩陣  
* X:(L*1)轉(zhuǎn)置的輸入?yún)?shù)矩陣;X = [X[0][1], X[1][1]... X[2][1], X[2][2]...]  
* X[0][1] = 1  
  X[1][l] = xl  
  X[2][l] = x1^2, x2^2, x1x2, x1x3 ect  
7. output的表示方式.PNG
符號(hào)解釋?zhuān)? 
* W:(m*M)的輸出層權(quán)重矩陣  
  W = [w1, w2, ..., w(p+1)]T  
  wk = 輸出層每個(gè)節(jié)點(diǎn)組成的集合  
  wijk = 輸出層的每個(gè)節(jié)點(diǎn)關(guān)于上一層節(jié)點(diǎn)連邊上的權(quán)重值組成的集合  
8. 最終簡(jiǎn)化而成的每一個(gè)輸出y的表達(dá)式.PNG

Kalman filtering

目的

預(yù)測(cè)和反饋向最小mse值的遞歸過(guò)程萎津,對(duì)每一個(gè)輸出節(jié)點(diǎn)上的權(quán)重進(jìn)行filter

Process

9. 神經(jīng)網(wǎng)絡(luò)系統(tǒng)的狀態(tài)差分方程.PNG
9.2.PNG
9.3.PNG
9.4 噪聲的相關(guān)關(guān)系.PNG
補(bǔ)充及符號(hào)解釋?zhuān)? 
* 每一個(gè)輸出節(jié)點(diǎn)對(duì)應(yīng)的權(quán)重值可以獨(dú)立更新  
* A: (M*M)的狀態(tài)轉(zhuǎn)化矩陣  
* B: (M*M)的對(duì)角矩陣  
* uk: (1*M)的process error向量  
* vk: scalar measurement error  
* uk及vk為服從高斯模型的白噪聲,相關(guān)關(guān)系如上圖9.4  
10. 神經(jīng)網(wǎng)絡(luò)中權(quán)重矩陣?yán)每柭鼮V波進(jìn)行反饋和預(yù)測(cè)的過(guò)程.PNG
補(bǔ)充解釋?zhuān)? 
* 上圖第一個(gè)等式右邊的權(quán)重值為經(jīng)過(guò)PBF預(yù)測(cè)得到的估計(jì)值卸伞;
  左邊的權(quán)重值為filter預(yù)測(cè)反饋而得到的估計(jì)值
* gk^j: 卡爾曼增益值; 通常使用UD分解來(lái)求卡爾曼增益值(ud文件的意義)
11. 卡爾曼增益值計(jì)算公式.PNG
簡(jiǎn)化計(jì)算:  
* 令A(yù)j和Bj為單位矩陣  
* rk^j為小的正數(shù)  
* 令 Qk^j = φ^2 * I(單位矩陣)
  φ為指定的過(guò)程誤差變量
* 初始權(quán)重設(shè)置為小隨機(jī)數(shù)  
* 設(shè)立初始預(yù)測(cè)誤差相關(guān)矩陣為圖11.1
11.1.PNG

實(shí)驗(yàn)過(guò)程

  1. 預(yù)處理:
  • 對(duì)輸入數(shù)據(jù)到預(yù)測(cè)數(shù)據(jù)進(jìn)行 sensitibity test
  • 采用Monte Carlo對(duì)訓(xùn)練數(shù)據(jù)集進(jìn)行選擇,選取輸出值易受輸入值影響的
  1. 神經(jīng)網(wǎng)絡(luò)黑箱處理
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末锉屈,一起剝皮案震驚了整個(gè)濱河市荤傲,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌颈渊,老刑警劉巖遂黍,帶你破解...
    沈念sama閱讀 221,888評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件终佛,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡雾家,警方通過(guò)查閱死者的電腦和手機(jī)查蓉,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,677評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)榜贴,“玉大人豌研,你說(shuō)我怎么就攤上這事』5常” “怎么了鹃共?”我有些...
    開(kāi)封第一講書(shū)人閱讀 168,386評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)驶拱。 經(jīng)常有香客問(wèn)我霜浴,道長(zhǎng),這世上最難降的妖魔是什么蓝纲? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 59,726評(píng)論 1 297
  • 正文 為了忘掉前任阴孟,我火速辦了婚禮,結(jié)果婚禮上税迷,老公的妹妹穿的比我還像新娘永丝。我一直安慰自己,他們只是感情好箭养,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,729評(píng)論 6 397
  • 文/花漫 我一把揭開(kāi)白布慕嚷。 她就那樣靜靜地躺著,像睡著了一般毕泌。 火紅的嫁衣襯著肌膚如雪喝检。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 52,337評(píng)論 1 310
  • 那天撼泛,我揣著相機(jī)與錄音挠说,去河邊找鬼。 笑死愿题,一個(gè)胖子當(dāng)著我的面吹牛损俭,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播抠忘,決...
    沈念sama閱讀 40,902評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼撩炊,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了崎脉?” 一聲冷哼從身側(cè)響起拧咳,我...
    開(kāi)封第一講書(shū)人閱讀 39,807評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎囚灼,沒(méi)想到半個(gè)月后骆膝,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體祭衩,經(jīng)...
    沈念sama閱讀 46,349評(píng)論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,439評(píng)論 3 340
  • 正文 我和宋清朗相戀三年阅签,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了掐暮。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,567評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡政钟,死狀恐怖路克,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情养交,我是刑警寧澤精算,帶...
    沈念sama閱讀 36,242評(píng)論 5 350
  • 正文 年R本政府宣布,位于F島的核電站碎连,受9級(jí)特大地震影響灰羽,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜鱼辙,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,933評(píng)論 3 334
  • 文/蒙蒙 一廉嚼、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧倒戏,春花似錦怠噪、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,420評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至葱椭,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間口四,已是汗流浹背孵运。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,531評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留蔓彩,地道東北人治笨。 一個(gè)月前我還...
    沈念sama閱讀 48,995評(píng)論 3 377
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像赤嚼,于是被迫代替她去往敵國(guó)和親旷赖。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,585評(píng)論 2 359

推薦閱讀更多精彩內(nèi)容