![240](https://upload.jianshu.io/users/upload_avatars/15733953/7056cfc1-18aa-48f6-bd82-bbae73c0391e.jpg?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
本篇是我的讀書筆記《秘密》喉脖,大多也是摘錄。 讀完后着撩,書中的部分觀點與其他書大同小異,但是這本書操作性強祖乳。自我總結(jié)成以下幾點: 明確自己的目標(好...
這篇文章其實更多講的是,有哪些方面會影響我們作出決策。作者總結(jié)了6大影響力武器: 互惠 承諾和一致 社會認同 喜好 權(quán)威 稀缺 1. 互惠 ——...
本篇是一些摘錄: 1. 生活態(tài)度 我們期望生活給予什么并不重要足删,重要的是生活對我們有什么期望。 我們真正需要的锁右,是在生活態(tài)度上來個根本的轉(zhuǎn)變失受。我...
1. 為什么要做特征歸一化/標準化? 數(shù)據(jù)預處理中咏瑟,通常會用到特征歸一化拂到,為什么要做歸一化呢?一般有兩點: 消除特征間單位和尺度差異的影響特征間...
本文是對bert的細節(jié)進行整理码泞,分成3個部分的問題: 目錄 輸入 與transformer相比輸入有什么不同兄旬? bert的3種embedding...
正則化(Regularization)是機器學習中一種常用的技術(shù)余寥,其主要目的是控制模型復雜度领铐,減小過擬合。最基本的正則化方法是在原目標(代價)函...
本文是對transformer的細節(jié)進行整理宋舷,主要有以下問題: Transformer為什么Q和K使用不同的權(quán)重矩陣生成绪撵,為何不能使用同一個值進...
大綱 選取列 select 常數(shù)列 lit 條件分支 when otherwise 數(shù)學函數(shù) 時間函數(shù) 窗口函數(shù) row_number 自定義函...
目錄 二分類 多分類 為什么sigmoid激活函數(shù),使用交叉熵損失函數(shù)更好? 1. 二分類 激活函數(shù)sigmoid這里要注意的是是最后一層的輸出...