2018-09-28【機(jī)器學(xué)習(xí)筆錄】機(jī)器學(xué)習(xí)中一些函數(shù)的概念及應(yīng)用[二]

--------------------------------
Author : ShawnDong
updateDate :2018.9.29
Blog : ShawnDong98.github.io
--------------------------------

激活函數(shù)

  • 是什么裁眯?
    目前主要的激活函數(shù)有以下幾種:

傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中最常用的兩個(gè)激活函數(shù)為sigmoid和tanh穿稳,sigmoid被視為神經(jīng)網(wǎng)絡(luò)的額核心所在逢艘。

sigmoid:


sigmoid

非線性的sigmoid函數(shù)對(duì)中央?yún)^(qū)的信號(hào)增益較大它改,對(duì)兩側(cè)區(qū)的信號(hào)增益較小搔课,在信號(hào)的特征空間映射上,有很好的效果柬讨。

tanh:


tanh.png

由于sigmoid和tanh激活函數(shù)左右兩端在很大程度上接近極值,容易飽和袍啡,因此正在進(jìn)行計(jì)算時(shí)當(dāng)傳遞的數(shù)值過大或過小時(shí)會(huì)使神經(jīng)元梯度接近于0踩官,使得模型計(jì)算時(shí)會(huì)多次計(jì)算接近于0的梯度,花費(fèi)了學(xué)習(xí)時(shí)間卻使得權(quán)重沒有更新境输。

ReLu:


image.png

ReLu對(duì)于達(dá)到閾值的數(shù)據(jù)其激活力度隨著數(shù)值的加大而增大蔗牡,呈線性關(guān)系。
ReLu計(jì)算簡(jiǎn)單嗅剖,單純一個(gè)值的輸入輸出不需要進(jìn)行一系列的復(fù)雜計(jì)算辩越,從而獲得激活值。
ReLu進(jìn)行模型計(jì)算時(shí)黔攒,一部分神經(jīng)元在計(jì)算時(shí)如果有一個(gè)大的梯度經(jīng)過,則此神經(jīng)元的梯度會(huì)被強(qiáng)行設(shè)置為0,而在整個(gè)其后的訓(xùn)練過程中這個(gè)神經(jīng)元都不會(huì)被激活督惰,這會(huì)導(dǎo)致數(shù)據(jù)多樣化的丟失不傅,但是也能防止過擬合。

Relu當(dāng)輸入是負(fù)數(shù)的時(shí)候赏胚,ReLU是完全不被激活的访娶,這就表明一旦輸入到了負(fù)數(shù),ReLU就會(huì)死掉觉阅。這樣在前向傳播過程中崖疤,還不算什么問題,有的區(qū)域是敏感的留拾,有的是不敏感的戳晌。但是到了反向傳播過程中,輸入負(fù)數(shù)痴柔,梯度就會(huì)完全到0沦偎,這個(gè)和sigmod函數(shù)、tanh函數(shù)有一樣的問題咳蔚。

ELU:


image.png

ELU函數(shù)是針對(duì)ReLU函數(shù)的一個(gè)改進(jìn)型豪嚎,相比于ReLU函數(shù),在輸入為負(fù)數(shù)的情況下谈火,是有一定的輸出的侈询,而且這部分輸出還具有一定的抗干擾能力。這樣可以消除ReLU死掉的問題糯耍,不過還是有梯度飽和和指數(shù)運(yùn)算的問題扔字。

PReLu:


image.png

PReLU也是針對(duì)ReLU的一個(gè)改進(jìn)型,在負(fù)數(shù)區(qū)域內(nèi)温技,PReLU有一個(gè)很小的斜率革为,這樣也可以避免ReLU死掉的問題。相比于ELU舵鳞,PReLU在負(fù)數(shù)區(qū)域內(nèi)是線性運(yùn)算震檩,斜率雖然小,但是不會(huì)趨于0蜓堕,這算是一定的優(yōu)勢(shì)吧

  • 為什么抛虏?
    對(duì)于神經(jīng)網(wǎng)絡(luò)的擬合,其過程可以認(rèn)為是在不停地將相似的數(shù)據(jù)和特征疊加在一起套才,而激活函數(shù)就起到在這些疊加層之間進(jìn)行切割的作用迂猴,使其在真實(shí)的貼近過程中還有一個(gè)能夠被相互區(qū)分的能力
  • 怎么用?
    來(lái)自于莫凡老師的說(shuō)法背伴,激活函數(shù)就是將輸入”掰彎“沸毁,將神經(jīng)元的輸入映射到輸出端儡率。

卷積層

  • 是什么?

卷積核是一個(gè)大小遠(yuǎn)遠(yuǎn)小于圖像的矩陣以清,對(duì)于圖像大矩陣中的每個(gè)像素,計(jì)算其周圍的像素和卷積核對(duì)應(yīng)位置的乘積崎逃,最后將將結(jié)果相加最終得到的值就是該像素的值掷倔,這樣就完成了一次卷積。

數(shù)字圖像處理卷積運(yùn)算主要有兩種思維:

稀疏矩陣:對(duì)于稀疏矩陣來(lái)說(shuō)个绍, 卷積網(wǎng)絡(luò)具有稀疏性勒葱, 卷積核的大小遠(yuǎn)遠(yuǎn)小于輸入數(shù)據(jù)矩陣的大小。這樣能夠在計(jì)算后獲取更少的參數(shù)特征巴柿,極大地減少了后續(xù)的計(jì)算量凛虽。

參數(shù)共享:在提取特征過程中,一個(gè)模型在多個(gè)參數(shù)之中使用相同的參數(shù)

  • 為什么广恢?

卷積核中不同位置權(quán)重不同凯旋,因?yàn)闄?quán)重不同,在卷積核在和圖像的每個(gè)像素及其周圍像素相乘時(shí)钉迷,可以提取圖像的特征信息至非。

  • 怎么用?
    在tensorflow中對(duì)卷積復(fù)雜的數(shù)學(xué)運(yùn)算進(jìn)行了很好的封裝糠聪,調(diào)用函數(shù)
tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)

池化層

  • 是什么荒椭?

計(jì)算圖像一個(gè)區(qū)域上的某個(gè)特定特征的平均值(或最大值)作為特征提取。這種聚合的操作叫做池化舰蟆,根據(jù)不同的池化方式叫做平均池化和最大池化趣惠。

  • 為什么?

理論上卷積后得到圖像的特征身害,可以通過這些特征去訓(xùn)練分類器味悄,但是這樣會(huì)面臨計(jì)算量的挑戰(zhàn),池化使得特征具有低得多的維度题造。

  • 怎么用傍菇?
    TensorFlow中池化運(yùn)算的函數(shù)如下:
tf.nn.max_pool(value, ksize, strides, padding, name=None)

全連接層

  • 是什么?

正如其名界赔,全連接層就起到將已經(jīng)訓(xùn)練得到的特征(也就是卷積池化后的輸出)和最終輸出(也就是最終分類)連接起來(lái)的作用丢习。

  • 為什么?

全連接層將學(xué)習(xí)到的“分布式特征表示”映射到標(biāo)記空間的作用 (其實(shí)就是將已經(jīng)提取的特征淮悼,通過分類器咐低,進(jìn)行分類的過程(如softmax激勵(lì)函數(shù)))

  • 怎么用?
    TensorFlow中使用分類器進(jìn)行分類的過程其實(shí)也就是全連接的過程
  tf.nn.softmax()

如何防止過擬合

  • 是什么袜腥?

在TensorFlow訓(xùn)練的過程中见擦,因?yàn)槿M合偏離程度較大的點(diǎn)钉汗,導(dǎo)致曲線變形。

  • 為什么鲤屡?
  1. 訓(xùn)練集的數(shù)量級(jí)和模型的復(fù)雜度不匹配损痰,訓(xùn)練集的數(shù)量級(jí)要小于模型的復(fù)雜度。
  2. 訓(xùn)練集和測(cè)試集特征分布不一致酒来;
  3. 樣本里的噪音數(shù)據(jù)干擾過大卢未,大到模型過分記住了噪音特征,反而忽略了真實(shí)的輸入輸出間的關(guān)系堰汉;
  4. 權(quán)值學(xué)習(xí)迭代次數(shù)足夠多(Overtraining)辽社,擬合了訓(xùn)練數(shù)據(jù)中的噪聲和訓(xùn)練樣例中沒有代表性的特征
  • 怎么用?

1翘鸭、使用Dropout滴铅,訓(xùn)練過程按一定幾率關(guān)閉或忽略某些層的節(jié)點(diǎn)。
2就乓、權(quán)重衰減(正則化):將權(quán)值大小加入到損失函數(shù)中

此外還有獲取更多數(shù)據(jù)集汉匙,采用合適模型,Early Stopping生蚁, 可變化的學(xué)習(xí)率盹兢, 使用Batch_Normalization,交叉驗(yàn)證守伸,PCA特征提取绎秒,增加各種噪音等方式來(lái)降低過擬合。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末尼摹,一起剝皮案震驚了整個(gè)濱河市见芹,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌蠢涝,老刑警劉巖玄呛,帶你破解...
    沈念sama閱讀 206,311評(píng)論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異和二,居然都是意外死亡徘铝,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,339評(píng)論 2 382
  • 文/潘曉璐 我一進(jìn)店門惯吕,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)惕它,“玉大人,你說(shuō)我怎么就攤上這事废登⊙推牵” “怎么了?”我有些...
    開封第一講書人閱讀 152,671評(píng)論 0 342
  • 文/不壞的土叔 我叫張陵堡距,是天一觀的道長(zhǎng)甲锡。 經(jīng)常有香客問我兆蕉,道長(zhǎng),這世上最難降的妖魔是什么缤沦? 我笑而不...
    開封第一講書人閱讀 55,252評(píng)論 1 279
  • 正文 為了忘掉前任虎韵,我火速辦了婚禮,結(jié)果婚禮上缸废,老公的妹妹穿的比我還像新娘劝术。我一直安慰自己,他們只是感情好呆奕,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,253評(píng)論 5 371
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著衬吆,像睡著了一般梁钾。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上逊抡,一...
    開封第一講書人閱讀 49,031評(píng)論 1 285
  • 那天姆泻,我揣著相機(jī)與錄音,去河邊找鬼冒嫡。 笑死拇勃,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的孝凌。 我是一名探鬼主播方咆,決...
    沈念sama閱讀 38,340評(píng)論 3 399
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼蟀架!你這毒婦竟也來(lái)了瓣赂?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 36,973評(píng)論 0 259
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤片拍,失蹤者是張志新(化名)和其女友劉穎煌集,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體捌省,經(jīng)...
    沈念sama閱讀 43,466評(píng)論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡苫纤,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 35,937評(píng)論 2 323
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了纲缓。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片卷拘。...
    茶點(diǎn)故事閱讀 38,039評(píng)論 1 333
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖祝高,靈堂內(nèi)的尸體忽然破棺而出恭金,到底是詐尸還是另有隱情,我是刑警寧澤褂策,帶...
    沈念sama閱讀 33,701評(píng)論 4 323
  • 正文 年R本政府宣布横腿,位于F島的核電站颓屑,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏耿焊。R本人自食惡果不足惜揪惦,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,254評(píng)論 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望罗侯。 院中可真熱鬧器腋,春花似錦、人聲如沸钩杰。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,259評(píng)論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)讲弄。三九已至措左,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間避除,已是汗流浹背怎披。 一陣腳步聲響...
    開封第一講書人閱讀 31,485評(píng)論 1 262
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留瓶摆,地道東北人凉逛。 一個(gè)月前我還...
    沈念sama閱讀 45,497評(píng)論 2 354
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像群井,于是被迫代替她去往敵國(guó)和親状飞。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,786評(píng)論 2 345

推薦閱讀更多精彩內(nèi)容