分享兩道最近參加校招筆試題: question1假設(shè)用戶看到一個商品后屋摇,購買的概率是5%克锣,收藏的概率是20%膳沽,而用戶收藏一個商品之后購買的概率是...
梯度下降法 梯度下降法用來求解目標函數(shù)的極值腊满。這個極值是給定模型給定數(shù)據(jù)之后在參數(shù)空間中搜索找到的套么。迭代過程為: 梯度下降方法的問題:每一步走的...
在初始化權(quán)值的時候,常用的一個函數(shù)是 np.random.randn() 函數(shù)碳蛋。這個函數(shù)會產(chǎn)生一個均值是0胚泌,方差是1的的分布。 數(shù)據(jù)分布直方圖肃弟,...
前置技能 決策樹and回歸樹http://www.reibang.com/p/479e92cf4c2chttps://www.jianshu....
舉一個例子玷室,來推到一些神經(jīng)網(wǎng)絡(luò)反向傳播的流程。(bp算法) 正向傳播的過程: 最終的損失為: 我們希望cost是越小越好笤受。所以穷缤,反向傳播就是干這...
對于回歸提升樹 提升樹是以分類樹或回歸樹為基分類器。它的idea在于感论,第一個回歸樹預測的效果可能一般绅项,但是第二個回歸樹把第一個預測錯的殘差作為輸...
Adaboost 的思想 Adaboost的想法是通過多個弱分分類器,組成一個效果很好的分類器比肄。對于第一個分類器分類錯誤的點快耿,他們的權(quán)重變大,使...
1 . 能干什么 在知乎芳绩,博客上面會看到有人分享自己的一些有意思的項目掀亥,比如下面這些,用rnn學習一個詩歌妥色,散文搪花,黨章,小說什么的。然后撮竿,在自己...
最近深度學習里面最cool的一個模型CNN卷積神經(jīng)網(wǎng)絡(luò)吮便,搞明白了cnn的基本模型之后,跑了幾個CNN的模型幢踏,算是CNN有一個基本的認識了髓需。 這幾...