半監(jiān)督學(xué)習(xí) 當(dāng)我們的訓(xùn)練集標(biāo)簽缺失,也就是有訓(xùn)練集X1=[(x.y)....]巷送,X2=[(x)...]驶忌。前者數(shù)據(jù)有標(biāo)簽,后者數(shù)據(jù)無標(biāo)簽笑跛。我們訓(xùn)練一個(gè)模型時(shí)位岔,如果只使用前者對(duì)后...
半監(jiān)督學(xué)習(xí) 當(dāng)我們的訓(xùn)練集標(biāo)簽缺失,也就是有訓(xùn)練集X1=[(x.y)....]巷送,X2=[(x)...]驶忌。前者數(shù)據(jù)有標(biāo)簽,后者數(shù)據(jù)無標(biāo)簽笑跛。我們訓(xùn)練一個(gè)模型時(shí)位岔,如果只使用前者對(duì)后...
kaggle比賽利器stacking 模型疊加 我們以二層疊加為例子理解它 我們有模型model1(可以是GBDT.xgboots等等) 有訓(xùn)練集500,驗(yàn)證集200 首先我...
LR+GBDT 在推薦問題中堡牡,我們一般都預(yù)測(cè)用戶是否做某事抒抬,是一個(gè)二分類問題。 對(duì)于二分類問題一般我們使用的是邏輯回歸晤柄。邏輯回歸是廣義的線性模型擦剑,增加sigma函數(shù)使其輸出值...
矩陣分解funkSVD:該矩陣分解不像是線代中的,他屬于偽分解芥颈。其主要思想是惠勒,用兩個(gè)m*k和k*n的矩陣代替m*n的矩陣。 因?yàn)樵谕扑]系統(tǒng)中爬坑,矩陣十分稀疏纠屋,分解后的矩陣一般是...
我們平時(shí)很容易遇到說排序,并取前N個(gè)的狀況盾计。我們根據(jù)數(shù)據(jù)類型可以簡(jiǎn)單分為重復(fù)鍵和不重復(fù)鍵的topN MapReduce 對(duì)于MR來說售担,topN代碼比較多一些,在這里我只講講思...
fasttext作為NPL領(lǐng)域中機(jī)器學(xué)習(xí)的優(yōu)秀范例值得研究署辉。 模型架構(gòu) 我對(duì)fasttext模型架構(gòu)理解與CBOW很像族铆。在訓(xùn)練時(shí),通過N-gram把詞向量喂入模型哭尝,輸出屬于各...
stocker是基于google時(shí)間序列預(yù)測(cè)模型 - 預(yù)測(cè)者實(shí)現(xiàn)的股票預(yù)測(cè)哥攘。 因?yàn)轫?xiàng)目要求股票分析,所以使用了該庫(kù),對(duì)該庫(kù)進(jìn)行簡(jiǎn)短總結(jié)逝淹。預(yù)測(cè)者模型的論文地址https://p...
之前在文章《<模型匯總_1>牛逼的深度卷積神經(jīng)網(wǎng)絡(luò)CNN》詳細(xì)介紹了卷積神經(jīng)網(wǎng)絡(luò)的基本原理耕姊,以及常見的基本模型,如LeNet栅葡,VGGNet茉兰,AlexNet,ReseNet妥畏,I...