UniformML Paper3-MLR《Learning Piece-wise Linear Models from Large Scale Data for Ad Click》

1 Introduction

線性模型在實際應用中雖然高效溉箕,但是實際很多特征空間的分界面未必都是線性的拒炎,為了適應這樣的場景裹纳,我們一般會通過兩種方法:
1择葡、復雜的特征工程(人工制造出非線性組合的特征)

To help LR model catch the nonlinearity, feature engineering technique is explored, which is both time and humanity consuming

2、通過模型組合(引入非線性模型)

Another direction, is to capture the nonlinearity with well-designed models. Facebook (He et al. 2014) uses a hybrid model which combines decision trees with logistic regression. Decision tree plays a nonlinear feature transformation role, whose output is fed to LR model. However, tree-based method is not suitable for very sparse and high dimensional data

除了樹模型+LR剃氧,還有factorization machine (FM)敏储,但是一般只能解決2階問題,沒辦法解決更高階的非線性組合朋鞍。

為了解決上述問題虹曙,本文提出了一個新的模型Large Scale Piece-wise Linear Model(LS-PLM)

In this paper, we present a piece-wise linear model and its training algorithm for large scale data.

這是一個分而治之的策略算法(divide-and-conquer strategy):先對空間進行劃分出多個區(qū)域,然后對每個區(qū)域采用線性模型

first divides the feature space into several local regions, then fits a linear model in each region, resulting in the output with combinations of weighted linear predictions.

這里的非線性就看多個區(qū)域的劃分機制番舆,如果劃分越細酝碳,那非線性的表征能力就越強。

在學習曲線導數(shù)的時候恨狈,我們知道疏哗,在一個極短的線段里,可以近似為直線禾怠。

本文提出的模型具有以下優(yōu)點:

  1. 非線性
  2. 支持大規(guī)模并行訓練
  3. 稀疏性

model sparsity is a practical issue for online serving in industrial setting. We show LS-PLM with L1 and L2,1 regularizer can achieve good sparsity.

我們先看個例子返奉,本文提出的模型對非線性的擬合能力

Example

2 模型細節(jié)

2.1 模型結(jié)構(gòu)

前面已經(jīng)提到贝搁,我們?yōu)榱吮碚鞣蔷€性關(guān)系,會把空間進行劃分芽偏,用多個線性模型表征非線性模型雷逆。模型的公式如下:
p(y=1|x)=g(\sum_{j=1}^m\sigma{(u_j^Tx)}\eta(w_j^Tx))
這里g里用了兩個函數(shù)來分別表征分而治之(dividing and fitting)的概念。
這里模型的參數(shù)
\theta={u_1, u_2, ...,u_m, w_1, w_2, ..., w_m}污尉,其中{u1, u2, ..., um}參數(shù)是dividing function
\sigma(.)的膀哲;{w1, w2, ..., wm}參數(shù)是fitting function \eta(.) 的。
當給定自變量x被碗,我們的預測模型包含兩部分:第一部分是dividing函數(shù)某宪,負責把特征空間劃分成m個區(qū)域;第二部分fitting函數(shù)是給出各個區(qū)域空間的概率預測锐朴。外層的g()保證我們的輸出結(jié)果滿足概率定義兴喂。
本文對上述三個函數(shù)的定義如下:

define of function

個人理解:感覺這里借鑒了non-parametric algorithm,然后和參數(shù)學習組合焚志,比如算法局部加權(quán)線性回歸算法衣迷,但是局部加權(quán)線性回歸算法的在線計算復雜度會隨著樣本數(shù)量增加而增加,這了用了m固定區(qū)域來限制酱酬,保證了在線計算復雜度壶谒,而且也在一段區(qū)域內(nèi)進行參數(shù)化
如果我們再對這個函數(shù)拆成兩步,第一步是先通過m個logistic regression計算岳悟,第二步是根據(jù)第一步的計算結(jié)果再進行一次softmax佃迄。這個過程是不是和一個標準的2層神經(jīng)網(wǎng)絡一樣?

本文還指出該模型和如下模型是如出一轍的形式贵少。


image

有了模型定義呵俏,下面我們來說下?lián)p失函數(shù)的定義:

image

這里loss同樣采用 經(jīng)驗誤差+結(jié)構(gòu)誤差的模式,經(jīng)驗誤差同LR采用的是交叉熵滔灶,模型結(jié)構(gòu)誤差采用的是L1和L2組合

||\theta||_{2,1}=\sum_{i=1}^3at2yt1\sqrt{\sum_{j=1}^{2m}\theta_{i,j}^2}
||\theta||_1=\sum_{ij}|\theta_{i,j}|

2.2 模型優(yōu)化求解方法

正是由于引入了模型結(jié)構(gòu)誤差普碎,導致模型非凸非平滑

However, both L1 norm and L2,1 norm are non-smooth functions. This causes the objective function of Eq.(4) to be non-convex and non-smooth, making it difficult to employ those traditional gradient-descent optimization methods

作者為了他解決這個問題,提出新的求解方法(根據(jù)梯度方向來更新)

2.3 trick

本文模型在訓練的時候采用了一個common feature trick录平,我們在廣告曝光的時候麻车,對于同一個用戶在同一個頁面展示不同的廣告,這里曝光的每條訓練數(shù)據(jù)集的user斗这、context的feature都是一致的动猬,只有item的feature不一致,所以在懸鏈的時候可以進行預計算公用特征表箭,然后在計算不一致特征即可赁咙,能夠高效提升計算效率。當然對訓練數(shù)據(jù)集分組的時候就有要求,盡可能把帶有公共特征的數(shù)據(jù)放在一臺機器上彼水。
如下崔拥,我們把feature空間分乘兩部分: xc表示common feature, xnc表示非公共特征


feature重寫

3 實驗

從試驗結(jié)果來看凤覆,模型超參數(shù)m如果越多能夠提升模型的效果链瓦,但是對訓練復雜度也會加大


image
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市盯桦,隨后出現(xiàn)的幾起案子慈俯,更是在濱河造成了極大的恐慌,老刑警劉巖俺附,帶你破解...
    沈念sama閱讀 219,270評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件肥卡,死亡現(xiàn)場離奇詭異溪掀,居然都是意外死亡事镣,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,489評論 3 395
  • 文/潘曉璐 我一進店門揪胃,熙熙樓的掌柜王于貴愁眉苦臉地迎上來璃哟,“玉大人,你說我怎么就攤上這事喊递∷嫔粒” “怎么了?”我有些...
    開封第一講書人閱讀 165,630評論 0 356
  • 文/不壞的土叔 我叫張陵骚勘,是天一觀的道長铐伴。 經(jīng)常有香客問我,道長俏讹,這世上最難降的妖魔是什么当宴? 我笑而不...
    開封第一講書人閱讀 58,906評論 1 295
  • 正文 為了忘掉前任,我火速辦了婚禮泽疆,結(jié)果婚禮上户矢,老公的妹妹穿的比我還像新娘。我一直安慰自己殉疼,他們只是感情好梯浪,可當我...
    茶點故事閱讀 67,928評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著瓢娜,像睡著了一般挂洛。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上眠砾,一...
    開封第一講書人閱讀 51,718評論 1 305
  • 那天虏劲,我揣著相機與錄音,去河邊找鬼。 笑死伙单,一個胖子當著我的面吹牛获高,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播吻育,決...
    沈念sama閱讀 40,442評論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼念秧,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了布疼?” 一聲冷哼從身側(cè)響起摊趾,我...
    開封第一講書人閱讀 39,345評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎游两,沒想到半個月后砾层,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,802評論 1 317
  • 正文 獨居荒郊野嶺守林人離奇死亡贱案,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,984評論 3 337
  • 正文 我和宋清朗相戀三年肛炮,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片宝踪。...
    茶點故事閱讀 40,117評論 1 351
  • 序言:一個原本活蹦亂跳的男人離奇死亡侨糟,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出瘩燥,到底是詐尸還是另有隱情秕重,我是刑警寧澤,帶...
    沈念sama閱讀 35,810評論 5 346
  • 正文 年R本政府宣布厉膀,位于F島的核電站溶耘,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏服鹅。R本人自食惡果不足惜凳兵,卻給世界環(huán)境...
    茶點故事閱讀 41,462評論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望菱魔。 院中可真熱鬧留荔,春花似錦、人聲如沸澜倦。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,011評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽藻治。三九已至碘勉,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間桩卵,已是汗流浹背验靡。 一陣腳步聲響...
    開封第一講書人閱讀 33,139評論 1 272
  • 我被黑心中介騙來泰國打工倍宾, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人胜嗓。 一個月前我還...
    沈念sama閱讀 48,377評論 3 373
  • 正文 我出身青樓高职,卻偏偏與公主長得像,于是被迫代替她去往敵國和親辞州。 傳聞我的和親對象是個殘疾皇子怔锌,可洞房花燭夜當晚...
    茶點故事閱讀 45,060評論 2 355