記錄一下備用:使用https://github.com/hellohaptik/multi-task-NLP/[https://github.c...
數(shù)據(jù)集 RACE數(shù)據(jù)集 RACE: Large-scale ReAding Comprehension Dataset From Examina...
下載地址 https://www.cs.cmu.edu/~glai1/data/race/ 論文地址 Race: Large-scale rea...
下載地址 https://allenai.org/data/sciq 論文地址 Crowdsourcing multiple choice sc...
背景 相關(guān)前置背景知識(shí)見(jiàn)博客:http://www.reibang.com/p/d11cb1fe1201 HMM三個(gè)問(wèn)題回顧 1.狀態(tài)問(wèn)題:已...
集成學(xué)習(xí) 著重于在訓(xùn)練集上做文章:將訓(xùn)練集劃分為各種子集或權(quán)重變換后用較弱的基模型擬合燃观,然后綜合若干個(gè)基模型的預(yù)測(cè)作為最終整體結(jié)果摧玫。 兩種算法:...
支持向量機(jī) 最初用于解決線性問(wèn)題组贺,加入核方法后可以用于解決非線性問(wèn)題蚪黑。能適應(yīng)“小樣本數(shù)量膝藕、高特征維度”問(wèn)題妨退,甚至是特征維度大于樣本數(shù)量的情況浓镜。目...
梯度下降 用于迭代求解函數(shù)最優(yōu)解,是大數(shù)據(jù)領(lǐng)域用于求解問(wèn)題的常用思想祝旷。步長(zhǎng):每一步梯度下降時(shí)向目標(biāo)方向前進(jìn)的長(zhǎng)度履澳。前期可以使用較大步長(zhǎng),加快訓(xùn)練...
線性回歸 OLS怀跛、Ridge、Lasso的優(yōu)缺點(diǎn)對(duì)比:OLS 最小二乘法:優(yōu)點(diǎn):計(jì)算方便(套入公式即可) 缺點(diǎn):數(shù)據(jù)維度越高柄冲,參數(shù)值越大吻谋、更容易...