240 發(fā)簡信
IP屬地:北京
  • 《秘密》

    本篇是我的讀書筆記《秘密》校翔,大多也是摘錄测砂。 讀完后屈梁,書中的部分觀點與其他書大同小異越庇,但是這本書操作性強咐蚯。自我總結(jié)成以下幾點: 明確自己的目標(biāo)(好...

  • 《影響力》

    這篇文章其實更多講的是健无,有哪些方面會影響我們作出決策。作者總結(jié)了6大影響力武器: 互惠 承諾和一致 社會認(rèn)同 喜好 權(quán)威 稀缺 1. 互惠 ——...

  • 《活出生命的意義》

    本篇是一些摘錄: 1. 生活態(tài)度 我們期望生活給予什么并不重要火惊,重要的是生活對我們有什么期望求类。 我們真正需要的,是在生活態(tài)度上來個根本的轉(zhuǎn)變屹耐。我...

  • Resize,w 360,h 240
    特征歸一化/標(biāo)準(zhǔn)化

    1. 為什么要做特征歸一化/標(biāo)準(zhǔn)化尸疆? 數(shù)據(jù)預(yù)處理中,通常會用到特征歸一化惶岭,為什么要做歸一化呢寿弱?一般有兩點: 消除特征間單位和尺度差異的影響特征間...

  • Resize,w 360,h 240
    Bert細(xì)節(jié)整理

    本文是對bert的細(xì)節(jié)進(jìn)行整理,分成3個部分的問題: 目錄 輸入 與transformer相比輸入有什么不同按灶? bert的3種embedding...

  • Resize,w 360,h 240
    L1症革、L2正則化

    正則化(Regularization)是機器學(xué)習(xí)中一種常用的技術(shù),其主要目的是控制模型復(fù)雜度鸯旁,減小過擬合噪矛。最基本的正則化方法是在原目標(biāo)(代價)函...

  • Resize,w 360,h 240
    Transformer細(xì)節(jié)整理

    本文是對transformer的細(xì)節(jié)進(jìn)行整理,主要有以下問題: Transformer為什么Q和K使用不同的權(quán)重矩陣生成铺罢,為何不能使用同一個值進(jìn)...

  • pyspark: sql.functions以及udf函數(shù)

    大綱 選取列 select 常數(shù)列 lit 條件分支 when otherwise 數(shù)學(xué)函數(shù) 時間函數(shù) 窗口函數(shù) row_number 自定義函...

  • 交叉熵?fù)p失函數(shù)

    目錄 二分類 多分類 為什么sigmoid激活函數(shù)艇挨,使用交叉熵?fù)p失函數(shù)更好? 1. 二分類 激活函數(shù)sigmoid這里要注意的是是最后一層的輸出...

個人介紹
小目標(biāo):代碼與論文齊飛
亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品