記錄一下備用:使用https://github.com/hellohaptik/multi-task-NLP/[https://github.com/hellohaptik/...
記錄一下備用:使用https://github.com/hellohaptik/multi-task-NLP/[https://github.com/hellohaptik/...
數(shù)據(jù)集 RACE數(shù)據(jù)集 RACE: Large-scale ReAding Comprehension Dataset From Examinations,相關(guān)介紹可參考:h...
下載地址 https://www.cs.cmu.edu/~glai1/data/race/ 論文地址 Race: Large-scale reading comprehens...
下載地址 https://allenai.org/data/sciq 論文地址 Crowdsourcing multiple choice science questions...
背景 相關(guān)前置背景知識(shí)見博客:http://www.reibang.com/p/d11cb1fe1201 HMM三個(gè)問題回顧 1.狀態(tài)問題:已知狀態(tài)轉(zhuǎn)移概率矩陣、輸出概率矩...
集成學(xué)習(xí) 著重于在訓(xùn)練集上做文章:將訓(xùn)練集劃分為各種子集或權(quán)重變換后用較弱的基模型擬合瑟啃,然后綜合若干個(gè)基模型的預(yù)測(cè)作為最終整體結(jié)果二汛。 兩種算法:Bagging method渡贾、...
支持向量機(jī) 最初用于解決線性問題沦童,加入核方法后可以用于解決非線性問題境蜕。能適應(yīng)“小樣本數(shù)量谊惭、高特征維度”問題汽馋,甚至是特征維度大于樣本數(shù)量的情況侮东。目標(biāo):使得與超平面最近的樣本點(diǎn)(...
梯度下降 用于迭代求解函數(shù)最優(yōu)解,是大數(shù)據(jù)領(lǐng)域用于求解問題的常用思想豹芯。步長(zhǎng):每一步梯度下降時(shí)向目標(biāo)方向前進(jìn)的長(zhǎng)度悄雅。前期可以使用較大步長(zhǎng),加快訓(xùn)練速度铁蹈,后期可以使用較短步長(zhǎng)宽闲,保...
線性回歸 OLS、Ridge握牧、Lasso的優(yōu)缺點(diǎn)對(duì)比:OLS 最小二乘法:優(yōu)點(diǎn):計(jì)算方便(套入公式即可) 缺點(diǎn):數(shù)據(jù)維度越高容诬,參數(shù)值越大、更容易過擬合沿腰,且計(jì)算過程涉及矩陣求逆...
背景 參照博客:https://blog.csdn.net/macanv/article/details/85684284參照代碼:https://github.com/ma...
背景 最近在用CRF做人名和時(shí)間的實(shí)體識(shí)別實(shí)驗(yàn),在此記錄一下實(shí)驗(yàn)的一點(diǎn)心得罗丰,供以后借鑒 心得 1.首先對(duì)自己的測(cè)試集神帅,調(diào)研已有實(shí)體識(shí)別模型效果,如ltp萌抵、jieba找御、百度實(shí)體...
機(jī)器學(xué)習(xí)中的一種特殊方法,使用神經(jīng)網(wǎng)絡(luò)這種結(jié)構(gòu)來描述計(jì)算過程卿闹,通過輸入海量數(shù)據(jù)揭糕,計(jì)算神經(jīng)網(wǎng)絡(luò)中的各級(jí)參數(shù)萝快。一般有如下原則: 1,交替使用線性和非線性單元著角,即層 2揪漩,使用鏈?zhǔn)椒?..
背景 0.概率圖:用圖來表達(dá)變量之前相關(guān)關(guān)系的概率模型奄容。其中圖中的點(diǎn)表示一組隨機(jī)變量,邊表示隨機(jī)變量之間的概率相關(guān)關(guān)系1.有向圖模型/貝葉斯網(wǎng):有向無環(huán)圖锨侯。當(dāng)變量之間有明確的...