7 激活函數(shù) -庖丁解牛之pytorch

pytorch中實現(xiàn)了大部分激活函數(shù),你也可以自定義激活函數(shù)克伊,激活函數(shù)的實現(xiàn)在torch.nn.functional中,每個激活函數(shù)都對應(yīng)激活模塊類不从,但最終還是調(diào)用torch.nn.functional犁跪,看了定義歹袁,你也能自定義激活函數(shù),我們從最早的激活函數(shù)來看

sigmoid

def sigmoid(input):
    r"""sigmoid(input) -> Tensor

    Applies the element-wise function :math:`\text{Sigmoid}(x) = \frac{1}{1 + \exp(-x)}`

    See :class:`~torch.nn.Sigmoid` for more details.
    """
    warnings.warn("nn.functional.sigmoid is deprecated. Use torch.sigmoid instead.")
    return input.sigmoid()
Sigmoid

源碼顯示這個激活函數(shù)直接調(diào)用tensor.sigmoid函數(shù)宇攻,值域在[0,1]之間倡勇,也就是把數(shù)據(jù)的所有值都壓縮在[0,1]之間嘉涌,映射概率不錯,如果作為激活函數(shù)有如下缺點

  • 神經(jīng)元容易飽和扔役,其值不在[-5, 5]之間警医,梯度基本為0,導(dǎo)致權(quán)重更新非常緩慢
  • 值域中心不是0侈玄,相當(dāng)于舍棄負值部分
  • 計算有點小貴吟温,畢竟每次都算兩個exp,一定要做內(nèi)存和計算的葛朗臺

tanh

def tanh(input):
    r"""tanh(input) -> Tensor

    Applies element-wise,
    :math:`\text{Tanh}(x) = \tanh(x) = \frac{\exp(x) - \exp(-x)}{\exp(x) + \exp(-x)}`

    See :class:`~torch.nn.Tanh` for more details.
    """
    warnings.warn("nn.functional.tanh is deprecated. Use torch.tanh instead.")
    return input.tanh()
tanh

這個函數(shù)的值域正常了潘悼,避免了sigmoid的問題爬橡,是[-1, 1],以0為中心宾添,但是依然存在一些問題梯度消失的神經(jīng)元飽和問題郭宝,而且計算更貴!

relu

def relu(input, inplace=False):
    if inplace:
        return torch.relu_(input)
    return torch.relu(input) 
ReLu

relu的函數(shù)定義就是max(0, x)榄檬,解決了梯度消失的飽和問題衔统,計算高效海雪,線性值舱殿,一般來說比Sigmoid/tanh快6倍左右。而且有資料顯示湾宙,和生物神經(jīng)激活機制非常相近冈绊。但是引入了新的問題,就是負值容易引起神經(jīng)死亡伟恶,也就是說每次這個激活函數(shù)會擼掉負值的部分毅该。

Leaky Relu

def leaky_relu(input, negative_slope=0.01, inplace=False):
    r"""
    leaky_relu(input, negative_slope=0.01, inplace=False) -> Tensor

    Applies element-wise,
    :math:`\text{LeakyReLU}(x) = \max(0, x) + \text{negative\_slope} * \min(0, x)`

    See :class:`~torch.nn.LeakyReLU` for more details.
    """
    if inplace:
        return torch._C._nn.leaky_relu_(input, negative_slope)
    return torch._C._nn.leaky_relu(input, negative_slope)
LReLu

為了處理負值的情況眶掌,Relu有了變種,其函數(shù)是max(0.01*x, x),這個函數(shù)解決了神經(jīng)飽和問題畏线,計算高效,而且神經(jīng)不死了蒿叠。

PRelu

def prelu(input, weight):
    r"""prelu(input, weight) -> Tensor

    Applies element-wise the function
    :math:`\text{PReLU}(x) = \max(0,x) + \text{weight} * \min(0,x)` where weight is a
    learnable parameter.

    See :class:`~torch.nn.PReLU` for more details.
    """
    return torch.prelu(input, weight)
PRelu

這個函數(shù)的定義是max(ax, x)市咽,其中參數(shù)a可以隨時調(diào)整抵蚊。

Elu Exponential Line Unit

def elu(input, alpha=1., inplace=False):
    r"""Applies element-wise,
    :math:`\text{ELU}(x) = \max(0,x) + \min(0, \alpha * (\exp(x) - 1))`.

    See :class:`~torch.nn.ELU` for more details.
    """
    if inplace:
        return torch._C._nn.elu_(input, alpha)
    return torch._C._nn.elu(input, alpha)
Elu

這個函數(shù)的定義是max(x, a*(exp(x)-1)),繼承了Relu的所有優(yōu)點谷醉,but貴一點冈闭,均值為0的輸出、而且處處一階可導(dǎo)遇八,眼看著就順滑啊,哈哈刃永,負值很好的處理了,魯棒性很好囚玫, nice读规!學(xué)完批標(biāo)準(zhǔn)化后,我們展示一個小示例,它居然在那個例子中干掉了批標(biāo)準(zhǔn)化供汛。
于是其他變種應(yīng)運而生

SELU

def selu(input, inplace=False):
    r"""selu(input, inplace=False) -> Tensor

    Applies element-wise,
    :math:`\text{SELU}(x) = scale * (\max(0,x) + \min(0, \alpha * (\exp(x) - 1)))`,
    with :math:`\alpha=1.6732632423543772848170429916717` and
    :math:`scale=1.0507009873554804934193349852946`.

    See :class:`~torch.nn.SELU` for more details.
    """
    if inplace:
        return torch.selu_(input)
    return torch.selu(input)
SELU

還有其他變種relu6怔昨、celu等等

這些激活函數(shù)我們來個經(jīng)驗參考:

  • 首先使用Relu,然后慢慢調(diào)整學(xué)習(xí)率
  • 可以嘗試Lecky Relu/Elu
  • 試一下tanh趁舀,不要期望太多
  • 不要嘗試sigmoid
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末矮烹,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子卤唉,更是在濱河造成了極大的恐慌仁期,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,451評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件熬的,死亡現(xiàn)場離奇詭異赊级,居然都是意外死亡,警方通過查閱死者的電腦和手機此衅,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,172評論 3 394
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來预烙,“玉大人道媚,你說我怎么就攤上這事∽钣颍” “怎么了?”我有些...
    開封第一講書人閱讀 164,782評論 0 354
  • 文/不壞的土叔 我叫張陵牺蹄,是天一觀的道長薄翅。 經(jīng)常有香客問我,道長鼎天,這世上最難降的妖魔是什么暑竟? 我笑而不...
    開封第一講書人閱讀 58,709評論 1 294
  • 正文 為了忘掉前任,我火速辦了婚禮罗岖,結(jié)果婚禮上腹躁,老公的妹妹穿的比我還像新娘。我一直安慰自己潜慎,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 67,733評論 6 392
  • 文/花漫 我一把揭開白布垒手。 她就那樣靜靜地躺著倒信,像睡著了一般。 火紅的嫁衣襯著肌膚如雪榜掌。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,578評論 1 305
  • 那天套硼,我揣著相機與錄音胞皱,去河邊找鬼。 笑死雾鬼,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的策菜。 我是一名探鬼主播酒贬,決...
    沈念sama閱讀 40,320評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼同衣,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了壶运?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,241評論 0 276
  • 序言:老撾萬榮一對情侶失蹤埠况,失蹤者是張志新(化名)和其女友劉穎棵癣,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體喜命,經(jīng)...
    沈念sama閱讀 45,686評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡河劝,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,878評論 3 336
  • 正文 我和宋清朗相戀三年赎瞎,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片务甥。...
    茶點故事閱讀 39,992評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖态辛,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情痰憎,我是刑警寧澤攀涵,帶...
    沈念sama閱讀 35,715評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站蜗细,受9級特大地震影響怒详,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜昆烁,卻給世界環(huán)境...
    茶點故事閱讀 41,336評論 3 330
  • 文/蒙蒙 一静尼、第九天 我趴在偏房一處隱蔽的房頂上張望白粉。 院中可真熱鬧鼠渺,春花似錦、人聲如沸鹃祖。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,912評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽楷兽。三九已至华临,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背却特。 一陣腳步聲響...
    開封第一講書人閱讀 33,040評論 1 270
  • 我被黑心中介騙來泰國打工筛圆, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人闽晦。 一個月前我還...
    沈念sama閱讀 48,173評論 3 370
  • 正文 我出身青樓提岔,卻偏偏與公主長得像,于是被迫代替她去往敵國和親碱蒙。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,947評論 2 355