DLRM代碼理解

在DLRM中有對(duì)訓(xùn)練集做處理的函數(shù),我們對(duì)訓(xùn)練序列做了研究,

    def apply_emb(self, lS_o, lS_i, emb_l, v_W_l):
        # WARNING: notice that we are processing the batch at once. We implicitly
        # assume that the data is laid out such that:
        # 1. each embedding is indexed with a group of sparse indices,
        #   corresponding to a single lookup
        # 2. for each embedding the lookups are further organized into a batch
        # 3. for a list of embedding tables there is a list of batched lookups

        ly = []
        for k, sparse_index_group_batch in enumerate(lS_i):
            sparse_offset_group_batch = lS_o[k]

            # embedding lookup
            # We are using EmbeddingBag, which implicitly uses sum operator.
            # The embeddings are represented as tall matrices, with sum
            # happening vertically across 0 axis, resulting in a row vector
            # E = emb_l[k]

            if v_W_l[k] is not None:
                per_sample_weights = v_W_l[k].gather(0, sparse_index_group_batch)
            else:
                per_sample_weights = None

            if:
                ....
            else:
                E = emb_l[k]
                V = E(
                    sparse_index_group_batch,
                    sparse_offset_group_batch,
                    per_sample_weights=per_sample_weights,
                )
            
                ly.append(V)

重點(diǎn)是這個(gè)地方川慌,其中E是所有打包好的Embedding:

image.png

其中第一維為這個(gè)Embedding table中包括的vector的數(shù)量驹饺,第二維64為vector的維度(有64個(gè)float)。

sparse_index_group_batch以及sparse_offset_group_batch為訓(xùn)練時(shí)需要的index以及offset最仑,Embedding table會(huì)根據(jù)index找具體的vector藐俺。

offset需要注意,offset = torch.LongTensor([0,1,4]).to(0)代表三個(gè)樣本泥彤,第一個(gè)樣本是0 ~ 1欲芹,第二個(gè)是1 ~ 4,第三個(gè)是4(網(wǎng)上解釋的都不夠清楚吟吝,所以我這里通過代碼實(shí)際跑了一下測(cè)出來(lái)是這個(gè)結(jié)果) 菱父。且左閉右開[0,1)這種形式取整數(shù)(已經(jīng)根據(jù)代碼進(jìn)行過驗(yàn)證)。

詳細(xì)解釋一下流程:

首先在apply_emb函數(shù)中每次循環(huán)會(huì)取出當(dāng)前第k個(gè)Emb table:E = emb_l[k],其中k是當(dāng)前所在輪數(shù)浙宜。

對(duì)于index數(shù)組與offset數(shù)組:

image.png

我們能看到官辽,第一個(gè)tensor是index,有五個(gè)元素粟瞬,代表我要取的當(dāng)前table中的vector的編號(hào)(共5個(gè))同仆。

而后面的offset就代表我取出來(lái)的這5個(gè)數(shù)組哪些要進(jìn)行reduce操作(加和等)。

例如我如果取offset為[0,3]裙品,則代表0俗批,1,2相加進(jìn)行reduce市怎,3岁忘,4進(jìn)行reduce。所以最終出來(lái)的數(shù)字個(gè)數(shù)就是offset的size区匠。

IS_I以及IS_O生成的位置

在dlrm_data_pytorch.py中的collate_wrapper_criteo_offset()函數(shù)里:

def collate_wrapper_criteo_offset(list_of_tuples):
    # where each tuple is (X_int, X_cat, y)
    transposed_data = list(zip(*list_of_tuples))
    X_int = torch.log(torch.tensor(transposed_data[0], dtype=torch.float) + 1)
    X_cat = torch.tensor(transposed_data[1], dtype=torch.long)
    T = torch.tensor(transposed_data[2], dtype=torch.float32).view(-1, 1)

    batchSize = X_cat.shape[0]
    featureCnt = X_cat.shape[1]
    lS_i = [X_cat[:, i] for i in range(featureCnt)]
    lS_o = [torch.tensor(range(batchSize)) for _ in range(featureCnt)]
    return X_int, torch.stack(lS_o), torch.stack(lS_i), T

在這里生成訪問序列干像,首先將傳入的數(shù)據(jù)解析為X_cat,當(dāng)bs=2時(shí)辱志,X_cat為:

tensor([[    0,    17, 36684, 11838,     1,     0,   145,     9,     0,  1176,
            24, 34569,    24,     5,    24, 15109,     0,    19,    14,     3,
         32351,     0,     1,  4159,    32,  5050],
        [    3,    12, 33818, 19987,     0,     5,  1426,     1,     0,  8616,
           729, 31879,   658,     1,    50, 26833,     1,    12,    89,     0,
         29850,     0,     1,  1637,     3,  1246]])

其中每一個(gè)tensor有26個(gè)數(shù)字蝠筑,代表26個(gè)Embedding table。每一個(gè)數(shù)字代表其中每個(gè)table需要訪問的vector揩懒。(比如0代表訪問第一個(gè)table的0號(hào)vector)

下面將訪問序列打包什乙,IS_i為:

[tensor([0, 3]), tensor([17, 12]), tensor([36684, 33818]), tensor([11838, 19987]), tensor([1, 0]), tensor([0, 5]), tensor([ 145, 1426]), tensor([9, 1]), tensor([0, 0]), tensor([1176, 8616]), tensor([ 24, 729]), tensor([34569, 31879]), tensor([ 24, 658]), tensor([5, 1]), tensor([24, 50]), tensor([15109, 26833]), tensor([0, 1]), tensor([19, 12]), tensor([14, 89]), tensor([3, 0]), tensor([32351, 29850]), tensor([0, 0]), tensor([1, 1]), tensor([4159, 1637]), tensor([32,  3]), tensor([5050, 1246])]

這里bs為2,所以[tensor([0, 3])代表訪問第一個(gè)table的0已球,3個(gè)vactor臣镣。

這里我們要再次理解一下數(shù)據(jù)集的含義,這里每一個(gè)table都是用戶的一個(gè)特征(所在城市智亮、年齡等)忆某,所以每一個(gè)用戶也就是每個(gè)table擁有一個(gè)數(shù)值,所以當(dāng)bs=2時(shí)阔蛉,這里的tensor[0弃舒,3]代表對(duì)兩個(gè)用戶進(jìn)行訓(xùn)練,其中第一個(gè)用戶的第一個(gè)table取值是0號(hào)vector状原,第二個(gè)用戶第一個(gè)table取值是3號(hào)vector聋呢。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市颠区,隨后出現(xiàn)的幾起案子削锰,更是在濱河造成了極大的恐慌,老刑警劉巖毕莱,帶你破解...
    沈念sama閱讀 216,470評(píng)論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件器贩,死亡現(xiàn)場(chǎng)離奇詭異颅夺,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)蛹稍,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,393評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門吧黄,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人稳摄,你說我怎么就攤上這事稚字∷撬蓿” “怎么了厦酬?”我有些...
    開封第一講書人閱讀 162,577評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)瘫想。 經(jīng)常有香客問我仗阅,道長(zhǎng),這世上最難降的妖魔是什么国夜? 我笑而不...
    開封第一講書人閱讀 58,176評(píng)論 1 292
  • 正文 為了忘掉前任减噪,我火速辦了婚禮,結(jié)果婚禮上车吹,老公的妹妹穿的比我還像新娘筹裕。我一直安慰自己,他們只是感情好窄驹,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,189評(píng)論 6 388
  • 文/花漫 我一把揭開白布朝卒。 她就那樣靜靜地躺著,像睡著了一般乐埠。 火紅的嫁衣襯著肌膚如雪抗斤。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,155評(píng)論 1 299
  • 那天丈咐,我揣著相機(jī)與錄音瑞眼,去河邊找鬼。 笑死棵逊,一個(gè)胖子當(dāng)著我的面吹牛伤疙,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播辆影,決...
    沈念sama閱讀 40,041評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼徒像,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了秸歧?” 一聲冷哼從身側(cè)響起厨姚,我...
    開封第一講書人閱讀 38,903評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎键菱,沒想到半個(gè)月后谬墙,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體今布,經(jīng)...
    沈念sama閱讀 45,319評(píng)論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,539評(píng)論 2 332
  • 正文 我和宋清朗相戀三年拭抬,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了部默。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,703評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡造虎,死狀恐怖傅蹂,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情算凿,我是刑警寧澤份蝴,帶...
    沈念sama閱讀 35,417評(píng)論 5 343
  • 正文 年R本政府宣布,位于F島的核電站氓轰,受9級(jí)特大地震影響婚夫,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜署鸡,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,013評(píng)論 3 325
  • 文/蒙蒙 一案糙、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧靴庆,春花似錦时捌、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,664評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至端礼,卻和暖如春禽笑,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背蛤奥。 一陣腳步聲響...
    開封第一講書人閱讀 32,818評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工佳镜, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人凡桥。 一個(gè)月前我還...
    沈念sama閱讀 47,711評(píng)論 2 368
  • 正文 我出身青樓蟀伸,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親缅刽。 傳聞我的和親對(duì)象是個(gè)殘疾皇子啊掏,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,601評(píng)論 2 353

推薦閱讀更多精彩內(nèi)容

  • 該文章為轉(zhuǎn)載文章,作者簡(jiǎn)介:汪劍衰猛,現(xiàn)在在出門問問負(fù)責(zé)推薦與個(gè)性化迟蜜。曾在微軟雅虎工作,從事過搜索和推薦相關(guān)工作啡省。 T...
    名字真的不重要閱讀 5,258評(píng)論 0 3
  • 我是黑夜里大雨紛飛的人啊 1 “又到一年六月娜睛,有人笑有人哭髓霞,有人歡樂有人憂愁,有人驚喜有人失落畦戒,有的覺得收獲滿滿有...
    陌忘宇閱讀 8,535評(píng)論 28 53
  • 信任包括信任自己和信任他人 很多時(shí)候方库,很多事情,失敗障斋、遺憾纵潦、錯(cuò)過,源于不自信垃环,不信任他人 覺得自己做不成邀层,別人做不...
    吳氵晃閱讀 6,187評(píng)論 4 8
  • 步驟:發(fā)微博01-導(dǎo)航欄內(nèi)容 -> 發(fā)微博02-自定義TextView -> 發(fā)微博03-完善TextView和...
    dibadalu閱讀 3,134評(píng)論 1 3
  • 回這一趟老家,心里多了兩個(gè)疙瘩晴裹。第一是堂姐現(xiàn)在談了一個(gè)有婦之夫被济,在她的語(yǔ)言中感覺,她不打算跟他有太長(zhǎng)遠(yuǎn)的計(jì)劃涧团,這讓...
    安九閱讀 3,502評(píng)論 2 4