240 發(fā)簡信
IP屬地:江蘇
  • 120
    怎樣高效使用spark雏婶?

    [toc] 背景知識(shí): Spark與Hadoop差異 Spark是在借鑒了MapReduce之上發(fā)展而來的肥荔,繼承了其分布式并行計(jì)算的優(yōu)點(diǎn)并改進(jìn)了MapReduce明顯的缺陷糠聪,...

  • 120
    2021-06-28 ch22 transfomer

    為什么要layer Norm ?隨著網(wǎng)絡(luò)層數(shù)增加呻右,特征分布會(huì)變化阵难,為了保持特征分布的穩(wěn)定性,加速收斂layer Norm 和 Batch Norm 的區(qū)別漩蟆?都是 均值0 方...

  • 120
    2021-06-27 ch22 注意力機(jī)制

    為什么需要注意力機(jī)制垒探?理解文本、圖片信息怠李,能記住的信息是有限的圾叼,模型要利用好每一刻有用的部分,把注意力放在某一個(gè)部分seq2seq 存在1捺癞、長依賴的梯度消失問題夷蚊;2、瓶頸問題...

  • 你好髓介,文中有好幾處公式?jīng)]有正常加載出來

    論文筆記 | SIGIR2019 | Warm Up Cold-start Advertisements: Improving CTR Predictions via Learning to L...

    論文地址:https://arxiv.org/abs/1904.11547 官方代碼:https://github.com/Feiyang/MetaEmbedding 一 為...

  • 2021-06-17 ch21 詞向量review

    詞向量:和獨(dú)熱編碼不同的是惕鼓,可以表示一個(gè)詞的含義,但無法表示一詞多義 訓(xùn)練詞向量的方法:基于非語言模型的方法:CBOW Skip-gram基于語言模型的方法:seq2seq ...

  • 120
    2021-05-09 ch11 語言模型

    語言模型:用于判斷一句話是否語法通順給已經(jīng)訓(xùn)練好的語言模型可以對(duì)任何一個(gè)文本給出概率唐础,概率越高說明語法上越通順 鏈?zhǔn)礁怕?P(今天是周日) = P(今天)P(是|今天)P(周...

  • 120
    2021-05-15 ch19 seq2seq

    seq2seq應(yīng)用場(chǎng)景:文本生成:翻譯箱歧、看圖說話夫否、生成摘要 文本理解和生成文本encoder & decoderencoder,根據(jù)輸入序列生成語義向量 (h4 = C)de...

  • 120
    2021-05-09 ch18 RNN

    輸入 x1 單詞對(duì)應(yīng)一個(gè)embedding叫胁,Ex1輸出 y' = [y1', y2', ...] (任務(wù)不同凰慈,使用的y不同:詞性標(biāo)注,每個(gè)y'都要驼鹅;情感分類微谓,僅需要最后一個(gè)y...

  • 120
    2021-04-19 ch9 詞向量技術(shù)

    矩陣分解法 構(gòu)造矩陣X 形狀式詞庫size×詞庫size分解后得到S\V\D, 其中S矩陣就是詞向量壞處是 矩陣分解是全局方法输钩,分解的過程依賴于所有的語料庫豺型,一旦語料庫變了,...

  • 120
    2021-04-10 ch7 文本表示

    文本表示基礎(chǔ) 單詞和句子的表示 迭代1:one-hot表示詞庫:[今天 天氣 很好]句子1:[今天 天氣 很好] = [1,1,1]缺點(diǎn):沒有順序和權(quán)重买乃;稀疏姻氨;無法比較語義相...

  • 120
    2021-04-17 ch9 skipgram

    CBOW 周圍詞預(yù)測(cè)中心詞skip gram 中心詞預(yù)測(cè)周圍詞 SkipGram模型講解 1.目標(biāo)函數(shù)2.具備條件 兩個(gè)詞越相似,P(c,w;θ) 越大 3.表示方法:中心...

  • 120
    2021-04-10 ch6 文本處理緒論

    分詞 分詞效果怎么評(píng)價(jià)剪验? 有語料集來算準(zhǔn)召率 下游任務(wù)來評(píng)價(jià) 單詞糾錯(cuò) 第一步:找到拼寫錯(cuò)誤的單詞第二步:生成跟上述單詞類似的其他單詞肴焊,當(dāng)作是候選集第三步:根據(jù)單詞在上下文中...

  • 120
    2021-04-10 ch4模型泛化和過擬合

    泛化和過擬合 構(gòu)建泛化能力強(qiáng)的模型 正確的數(shù)據(jù) 合適的模型(圖像:CNN) 合適的優(yōu)化算法(梯度下降、adam) 避免模型過擬合 過擬合:訓(xùn)練集上擬合好功戚,但在測(cè)試集上表現(xiàn)差通...

  • LR(Logistic Regression Classifier)簡述

    一娶眷、二分類問題 背景:用一個(gè)函數(shù)擬合二分類問題。最直觀的是階躍函數(shù)啸臀,但缺點(diǎn):0值不可導(dǎo)届宠,因此要連續(xù)可微函數(shù) sigmoid。sigmoid函數(shù)的作用: 線性回歸預(yù)測(cè)值域是實(shí)數(shù)...

  • 120
    推薦系統(tǒng)論文閱讀(三十五)-亞馬遜:多樣性互補(bǔ)商品的召回算法

    論文 : 論文題目:《P-Companion: A Principled Framework for Diversified Complementary Product Re...

  • 你好,我理解這個(gè)模型是屬于精排環(huán)節(jié)的
    請(qǐng)教幾個(gè)問題:
    1.線上預(yù)測(cè)的時(shí)候灯萍,s=f(x1,x2, ..., xj) 中的x 是召回的item集合嗎轧铁?
    2.離線訓(xùn)練的時(shí)候,輸入的物品的內(nèi)容向量是怎么得到的竟稳? 輸入的item集合是什么呢属桦?需要自己構(gòu)造一些負(fù)樣本的嗎?

    推薦系統(tǒng)論文閱讀(一)-序列推薦結(jié)合長尾物品提升推薦的多樣性

    疫情在家閱讀了大量了推薦系統(tǒng)論文他爸,但是都沒有好好的寫過博客聂宾,基本上都是精讀過后只記得論文的思想,重新閱讀之前的論文還會(huì)對(duì)有些數(shù)學(xué)公式一知半解诊笤∠敌常基于這方面的考慮,還是決定在閱讀...

  • NLP文本分類學(xué)習(xí)系列(二)

    Task2 數(shù)據(jù)讀取與數(shù)據(jù)分析 讀取數(shù)據(jù)第一列為新聞的類別,第二列為新聞的字符纪他。讀取數(shù)據(jù) 數(shù)據(jù)洞察賽題數(shù)據(jù)中鄙煤,新聞文本的長度是多少?賽題數(shù)據(jù)的類別分布是怎么樣的茶袒,哪些類別比較...

  • NLP文本分類學(xué)習(xí)系列(一)

    天池比賽的賽題理解 賽題數(shù)據(jù)為新聞文本梯刚,并按照字符級(jí)別進(jìn)行匿名處理。整合劃分出14個(gè)候選分類類別:財(cái)經(jīng)薪寓、彩票亡资、房產(chǎn)、股票向叉、家居锥腻、教育、科技母谎、社會(huì)瘦黑、時(shí)尚、時(shí)政奇唤、體育幸斥、星座、游戲...

  • 可以的

    通俗理解YARN運(yùn)行原理

    導(dǎo)語:工作中常常和Spark on YARN, Hadoop on YARN打交道冻记,經(jīng)常在各種日志中摸爬滾打睡毒,為提升效率,總結(jié)一下YARN的知識(shí)點(diǎn)冗栗,希望能形成一個(gè)比較系統(tǒng)的方...

個(gè)人介紹
生活就像一盒巧克力,你永遠(yuǎn)不知道下一顆什么味道……
亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品