240 發(fā)簡信
IP屬地:北京
  • 《秘密》

    本篇是我的讀書筆記《秘密》喉脖,大多也是摘錄。 讀完后着撩,書中的部分觀點與其他書大同小異,但是這本書操作性強祖乳。自我總結(jié)成以下幾點: 明確自己的目標(好...

  • 《影響力》

    這篇文章其實更多講的是,有哪些方面會影響我們作出決策。作者總結(jié)了6大影響力武器: 互惠 承諾和一致 社會認同 喜好 權(quán)威 稀缺 1. 互惠 ——...

  • 《活出生命的意義》

    本篇是一些摘錄: 1. 生活態(tài)度 我們期望生活給予什么并不重要足删,重要的是生活對我們有什么期望。 我們真正需要的锁右,是在生活態(tài)度上來個根本的轉(zhuǎn)變失受。我...

  • Resize,w 360,h 240
    特征歸一化/標準化

    1. 為什么要做特征歸一化/標準化? 數(shù)據(jù)預處理中咏瑟,通常會用到特征歸一化拂到,為什么要做歸一化呢?一般有兩點: 消除特征間單位和尺度差異的影響特征間...

  • Resize,w 360,h 240
    Bert細節(jié)整理

    本文是對bert的細節(jié)進行整理码泞,分成3個部分的問題: 目錄 輸入 與transformer相比輸入有什么不同兄旬? bert的3種embedding...

  • Resize,w 360,h 240
    L1、L2正則化

    正則化(Regularization)是機器學習中一種常用的技術(shù)余寥,其主要目的是控制模型復雜度领铐,減小過擬合。最基本的正則化方法是在原目標(代價)函...

  • Resize,w 360,h 240
    Transformer細節(jié)整理

    本文是對transformer的細節(jié)進行整理宋舷,主要有以下問題: Transformer為什么Q和K使用不同的權(quán)重矩陣生成绪撵,為何不能使用同一個值進...

  • pyspark: sql.functions以及udf函數(shù)

    大綱 選取列 select 常數(shù)列 lit 條件分支 when otherwise 數(shù)學函數(shù) 時間函數(shù) 窗口函數(shù) row_number 自定義函...

  • 交叉熵損失函數(shù)

    目錄 二分類 多分類 為什么sigmoid激活函數(shù),使用交叉熵損失函數(shù)更好? 1. 二分類 激活函數(shù)sigmoid這里要注意的是是最后一層的輸出...

個人介紹
小目標:代碼與論文齊飛
亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品