traingdx 和 traincgb訓(xùn)練函數(shù)原理

當(dāng)涉及 MATLAB Neural Network Toolbox 中的 traingdxtraincgb 訓(xùn)練函數(shù)時,下面是它們的原理和表達(dá)公式的簡要說明:

traingdx 的原理:

  • traingdx實(shí)現(xiàn)了梯度下降法(Gradient Descent)與動量優(yōu)化(Momentum Optimization)和自適應(yīng)學(xué)習(xí)率(Adaptive Learning Rate)的結(jié)合。
  • 它使用動量優(yōu)化來加速收斂所禀,并通過自適應(yīng)學(xué)習(xí)率調(diào)整來提高穩(wěn)定性和準(zhǔn)確性。

動量優(yōu)化原理:

  • 動量優(yōu)化通過在每次迭代中累積梯度的指數(shù)加權(quán)平均取募,以加速更新權(quán)重瑟幕。這個指數(shù)加權(quán)平均稱為動量(momentum)承匣,可以使梯度下降更加平穩(wěn)宁仔。
  • 具體地稠屠,動量項會根據(jù)上一次的梯度方向和當(dāng)前梯度方向的差異進(jìn)行調(diào)整,通過動量項翎苫,算法可以根據(jù)歷史梯度的方向和當(dāng)前梯度的方向的差異來調(diào)整權(quán)重的更新方向权埠。如果歷史梯度和當(dāng)前梯度的方向一致,則動量項會增強(qiáng)這個方向上的權(quán)重更新煎谍;如果方向不一致攘蔽,則動量項會減小這個方向上的權(quán)重更新使得在相同方向上持續(xù)前進(jìn)的概率增加。

自適應(yīng)學(xué)習(xí)率原理:

  • 自適應(yīng)學(xué)習(xí)率是通過根據(jù)梯度的變化情況動態(tài)調(diào)整每個權(quán)重的學(xué)習(xí)率粱快。
  • 一種常見的自適應(yīng)學(xué)習(xí)率算法是根據(jù)梯度的二次變化來調(diào)整學(xué)習(xí)率秩彤。如果梯度變化較大,則減小學(xué)習(xí)率事哭;如果梯度變化較小,則增加學(xué)習(xí)率瓜富。

traingdx表達(dá)公式:

動量項的公式如下所示:

\Delta v = \text{momentum} \times \Delta v_{\text{previous}} + \text{learning_rate} \times \text{gradient}

其中鳍咱,\Delta v是動量項(momentum term),\text{momentum}是動量參數(shù)(通常取值在 0 到 1 之間)与柑,\Delta v_{\text{previous}}是上一次迭代的動量項谤辜,\text{learning_rate}是學(xué)習(xí)率,\text{gradient}是當(dāng)前迭代的梯度价捧。

在權(quán)重更新時丑念,動量項與權(quán)重的更新量相加,即:

\Delta w = \Delta v + \text{learning_rate} \times \text{gradient}

其中结蟋,\Delta w是權(quán)重的更新量脯倚。

通過動量項,權(quán)重的更新量不僅依賴于當(dāng)前的梯度,還考慮了歷史梯度的影響推正,從而加速收斂并提高算法在平坦或曲折表面上的性能恍涂。

權(quán)重更新公式:

w=w+\Delta w

學(xué)習(xí)率的自適應(yīng)調(diào)整:
\text{learning_rate} = \text{learning_rate} \times \text{adjustment_factor}

\text{adjustment_factor}是根據(jù)梯度變化率和目標(biāo)變化率之比來計算的

\text{adjustment_factor} = \frac{\text{previous_gradient_change}}{\text{current_gradient_change}}

其中,\text{previous_gradient_change}是上一次迭代中梯度的變化量植榕,\text{current_gradient_change}是當(dāng)前迭代中梯度的變化量再沧。

這個公式的含義是,通過比較前一次迭代和當(dāng)前迭代中梯度的變化率尊残,來判斷學(xué)習(xí)率的調(diào)整方向和幅度炒瘸。如果當(dāng)前梯度變化較小(\text{current_gradient_change}較星奚馈)什燕,而前一次梯度變化較大(\text{previous_gradient_change}較大),則說明目標(biāo)函數(shù)在當(dāng)前權(quán)重附近變化較小竞端,可以增大學(xué)習(xí)率屎即;反之,如果當(dāng)前梯度變化較大事富,而前一次梯度變化較小技俐,則說明目標(biāo)函數(shù)在當(dāng)前權(quán)重附近變化較大,可以減小學(xué)習(xí)率统台。


traincgb的原理:

  • traincgb實(shí)現(xiàn)了共軛梯度法(Conjugate Gradient)與 Barzilai-Borwein 學(xué)習(xí)率的結(jié)合雕擂。
  • 共軛梯度法是一種優(yōu)化算法,用于求解線性方程組或優(yōu)化問題贱勃。
  • Barzilai-Borwein 學(xué)習(xí)率是一種自適應(yīng)學(xué)習(xí)率方法井赌,基于共軛梯度法的特性來自動調(diào)整每個權(quán)重的學(xué)習(xí)率。

共軛梯度法原理:

  • 共軛梯度法使用共軛梯度方向更新權(quán)重贵扰,以最小化損失函數(shù)仇穗。
  • 共軛梯度法的關(guān)鍵思想是在每個迭代步驟中選擇一個共軛方向,使得該方向與前一個方向的梯度無關(guān)戚绕。

Barzilai-Borwein 學(xué)習(xí)率原理:

  • Barzilai-Borwein 學(xué)習(xí)率根據(jù)共軛梯度法的歷史梯度和權(quán)重變化來計算學(xué)習(xí)率纹坐。

    • 具體地,根據(jù)歷史梯度和權(quán)重變化計算一個自適應(yīng)的學(xué)習(xí)率舞丛,以加快收斂速度并提高準(zhǔn)確性耘子。

traincgb表達(dá)公式:

  • 更新權(quán)重的公式:w=w+\Delta w

    共軛梯度法原理:

    共軛方向的計算:
    \text{conjugate_direction} = -\text{gradient} + \left(\frac{\text{gradient_previous} \cdot \|\text{gradient}\|}{\|\text{gradient_previous}\|}\right)

    Barzilai-Borwein 學(xué)習(xí)率原理:

    學(xué)習(xí)率的計算:
    \text{learning_rate} = \frac{\| \Delta w - \Delta w_{\text{previous}} \|^2}{\Delta w_{\text{previous}} \cdot \text{gradient_previous}}

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市球切,隨后出現(xiàn)的幾起案子谷誓,更是在濱河造成了極大的恐慌,老刑警劉巖吨凑,帶你破解...
    沈念sama閱讀 206,968評論 6 482
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件捍歪,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)费封,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,601評論 2 382
  • 文/潘曉璐 我一進(jìn)店門焕妙,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人弓摘,你說我怎么就攤上這事焚鹊。” “怎么了韧献?”我有些...
    開封第一講書人閱讀 153,220評論 0 344
  • 文/不壞的土叔 我叫張陵末患,是天一觀的道長。 經(jīng)常有香客問我锤窑,道長璧针,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 55,416評論 1 279
  • 正文 為了忘掉前任渊啰,我火速辦了婚禮探橱,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘绘证。我一直安慰自己隧膏,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,425評論 5 374
  • 文/花漫 我一把揭開白布嚷那。 她就那樣靜靜地躺著胞枕,像睡著了一般。 火紅的嫁衣襯著肌膚如雪魏宽。 梳的紋絲不亂的頭發(fā)上腐泻,一...
    開封第一講書人閱讀 49,144評論 1 285
  • 那天,我揣著相機(jī)與錄音队询,去河邊找鬼派桩。 笑死,一個胖子當(dāng)著我的面吹牛娘摔,可吹牛的內(nèi)容都是我干的窄坦。 我是一名探鬼主播,決...
    沈念sama閱讀 38,432評論 3 401
  • 文/蒼蘭香墨 我猛地睜開眼凳寺,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了彤侍?” 一聲冷哼從身側(cè)響起肠缨,我...
    開封第一講書人閱讀 37,088評論 0 261
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎盏阶,沒想到半個月后晒奕,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 43,586評論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,028評論 2 325
  • 正文 我和宋清朗相戀三年脑慧,在試婚紗的時候發(fā)現(xiàn)自己被綠了魄眉。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 38,137評論 1 334
  • 序言:一個原本活蹦亂跳的男人離奇死亡闷袒,死狀恐怖坑律,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情囊骤,我是刑警寧澤晃择,帶...
    沈念sama閱讀 33,783評論 4 324
  • 正文 年R本政府宣布,位于F島的核電站也物,受9級特大地震影響宫屠,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜滑蚯,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,343評論 3 307
  • 文/蒙蒙 一浪蹂、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧告材,春花似錦坤次、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,333評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至灿渴,卻和暖如春洛波,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背骚露。 一陣腳步聲響...
    開封第一講書人閱讀 31,559評論 1 262
  • 我被黑心中介騙來泰國打工蹬挤, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人棘幸。 一個月前我還...
    沈念sama閱讀 45,595評論 2 355
  • 正文 我出身青樓焰扳,卻偏偏與公主長得像,于是被迫代替她去往敵國和親误续。 傳聞我的和親對象是個殘疾皇子吨悍,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,901評論 2 345