2019-11-06 廣告點(diǎn)擊率預(yù)測(cè):DeepCTR 庫(kù)的簡(jiǎn)單介紹

??很幸運(yùn)媳危, CTR 領(lǐng)域有一個(gè)方便易用的工具包——“deepctr”冈敛,它的出現(xiàn)不僅僅降低了廣告點(diǎn)擊率預(yù)測(cè)模型的上手難度恰聘,方便進(jìn)行模型對(duì)比,也讓給了我們機(jī)會(huì)從這些優(yōu)秀的源碼中學(xué)習(xí)到構(gòu)建模型的方式癌压。
??接下來(lái)我就簡(jiǎn)單介紹一下這個(gè)庫(kù):

1. 內(nèi)容

?&emps;內(nèi)容上,作者是實(shí)現(xiàn)了 2015~2019 年一些重要的 CTR 模型滩届,譬如 2015年的 CCPM丐吓,2019年的 FGCNN 等等 券犁。類別上基本都是深度學(xué)習(xí)模型汹碱,不會(huì)涉及很多傳統(tǒng)的模型,相信作者還會(huì)持續(xù)跟進(jìn)稚新。之后我會(huì)在這里介紹一下 CCPM(Convolutional Click Prediction Model)。

2. 使用(樣例摘自作者的quick start)

??作者對(duì)模塊的集成度很高飞醉,所以在實(shí)際調(diào)用模型的時(shí)候屯阀,非常地簡(jiǎn)潔和清晰,一個(gè)完整的步驟一般可以分為 4 步進(jìn)行:

step 1: 引入模型 & 讀入數(shù)據(jù)

??引入模型指的是引入必要的庫(kù)函數(shù)及所需模型钦无,示例如下:

import pandas as pd    # 表格類型的數(shù)據(jù)處理推薦使用這個(gè)庫(kù)
from sklearn.preprocessing import LabelEncoder, MinMaxScaler  # 顧名思義盖袭,不解釋了,后一個(gè)應(yīng)該是給 feature value 設(shè)置最值
from sklearn.model_selection import train_test_split # 劃分訓(xùn)練集弟塞、測(cè)試集的
from deepctr.models import CCPM   # 引入我想要用到的模型
from deepctr.inputs import SparseFeat, DenseFeat, get_feature_names  # 處理離散數(shù)據(jù)宣肚、稠密數(shù)據(jù)以及特征名稱

data = pd.read_csv('./criteo_sample.txt')

sparse_features = ['C'+str(i) for i in range(1, 27)]
dense_features = ['I'+str(i) for i in range(1, 14)]

data[sparse_features] = data[sparse_features].fillna('-1', )
data[dense_features] = data[dense_features].fillna(0, )
target = ['label']
step 2: 數(shù)據(jù)預(yù)處理

??1. 稀疏特征(sparse features) 是需要編碼的悠栓,因?yàn)橹T如“05db9164”這樣的特征,是無(wú)法輸入到模型里面的笙瑟。有兩種常見(jiàn)的簡(jiǎn)單方法來(lái)對(duì)稀疏類別進(jìn)行編碼:

  • Label Encoding: 將特征映射到 0~len(#unique)-1 的整形數(shù)值上
for feat in sparse_features:
  lbe = LabelEncoder()
  data[feat] = lbe.fit_transform(data[feat])
  • Hash Encoding: 將特征映射到一個(gè)固定的范圍呢癞志,譬如 0~9999,有兩種方法來(lái)實(shí)現(xiàn):

    a. 在訓(xùn)練之前進(jìn)行特征 hashing

for feat in sparse_features:
    lbe = HashEncoder()
    data[feat] = lbe.transform(data[feat])
> b. 在訓(xùn)練過(guò)程中進(jìn)行動(dòng)態(tài) hashing 處理

??只需要在Step 3中错洁,在SparseFeatVarlenSparseFeat中設(shè)置 use_hash=True即可

  1. 對(duì) 稠密特征(dense features) 進(jìn)行歸一化處理
mms = MinMaxScaler(feature_range=(0, 1))
data[dense_features] = mms.fit_transform(data[dense_features])
3. 生成特征 columns

這里看的不是特別明白屯碴,有待于我自己去看源碼再回來(lái)完善
??對(duì)于 dense features导而,通過(guò) embedding 的方式將其轉(zhuǎn)換為稠密向量(dense vectors)忱叭。對(duì)于稠密的數(shù)字特征(dense numerical features)韵丑,將其拼接在全連接層的輸入張量上撵彻。

  • Label Encoding
sparse_feature_columns = [SparseFeat(feat, data[feat].nunique())
                        for feat in sparse_features]
dense_feature_columns = [DenseFeat(feat, 1)
                      for feat in dense_features]

  • 動(dòng)態(tài)特征哈希(Feature Hashing on the fly)
sparse_feature_columns = [SparseFeat(feat, dimension=1e6,use_hash=True) for feat in sparse_features]#The dimension can be set according to data
dense_feature_columns = [DenseFeat(feat, 1)
                      for feat in dense_features]
  • 最后遥巴,生成 feature columns
dnn_feature_columns = sparse_feature_columns + dense_feature_columns
linear_feature_columns = sparse_feature_columns + dense_feature_columns
feature_names = get_feature_names(linear_feature_columns + dnn_feature_columns)
Step 4: 生成訓(xùn)練數(shù)據(jù)千康,并訓(xùn)練模型
train, test = train_test_split(data, test_size=0.2)

train, test = train_test_split(data, test_size=0.2)

train_model_input = {name:train[name].values for name in feature_names}
test_model_input = {name:test[name].values for name in feature_names}


model = CCPM(linear_feature_columns,dnn_feature_columns,task='binary')
model.compile("adam", "binary_crossentropy",
              metrics=['binary_crossentropy'], )

history = model.fit(train_model_input, train[target].values,
                    batch_size=256, epochs=10, verbose=2, validation_split=0.2, )
pred_ans = model.predict(test_model_input, batch_size=256)


最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市铲掐,隨后出現(xiàn)的幾起案子拾弃,更是在濱河造成了極大的恐慌,老刑警劉巖摆霉,帶你破解...
    沈念sama閱讀 219,039評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件豪椿,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡携栋,警方通過(guò)查閱死者的電腦和手機(jī)搭盾,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,426評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)婉支,“玉大人鸯隅,你說(shuō)我怎么就攤上這事◎蛞裕” “怎么了跟畅?”我有些...
    開(kāi)封第一講書(shū)人閱讀 165,417評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵虱痕,是天一觀的道長(zhǎng)皆疹。 經(jīng)常有香客問(wèn)我略就,道長(zhǎng),這世上最難降的妖魔是什么崔兴? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,868評(píng)論 1 295
  • 正文 為了忘掉前任山析,我火速辦了婚禮秆剪,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘钾挟。我一直安慰自己徽千,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,892評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著,像睡著了一般钧嘶。 火紅的嫁衣襯著肌膚如雪有决。 梳的紋絲不亂的頭發(fā)上新荤,一...
    開(kāi)封第一講書(shū)人閱讀 51,692評(píng)論 1 305
  • 那天苟呐,我揣著相機(jī)與錄音牵素,去河邊找鬼两波。 笑死单起,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的测蘑。 我是一名探鬼主播,決...
    沈念sama閱讀 40,416評(píng)論 3 419
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼产雹,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼夕土!你這毒婦竟也來(lái)了角溃?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 39,326評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤质欲,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后九昧,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體铸鹰,經(jīng)...
    沈念sama閱讀 45,782評(píng)論 1 316
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡躁垛,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,957評(píng)論 3 337
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,102評(píng)論 1 350
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖窟赏,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤粟誓,帶...
    沈念sama閱讀 35,790評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站,受9級(jí)特大地震影響亡嫌,放射性物質(zhì)發(fā)生泄漏袍睡。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,442評(píng)論 3 331
  • 文/蒙蒙 一涧狮、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸操灿。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,996評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背鸟赫。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,113評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,332評(píng)論 3 373
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像稚瘾,于是被迫代替她去往敵國(guó)和親些椒。 傳聞我的和親對(duì)象是個(gè)殘疾皇子痒给,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,044評(píng)論 2 355