
數(shù)據(jù)預(yù)處理部分和上一篇一樣测蹲,就不啰嗦了。重點(diǎn)看一下模型構(gòu)造:1. Attention層:核心在于對(duì)encoder端隱層權(quán)重進(jìn)行計(jì)算 比如我們準(zhǔn)備生成“machine”這個(gè)詞:...
1.加載數(shù)據(jù) 2.查看數(shù)據(jù) 3.數(shù)據(jù)預(yù)處理 3.1 構(gòu)造字典 3.2 增加特殊字符 3.3 word和id之間的映射表 3.4 text 轉(zhuǎn)換成 int 4. 構(gòu)建模型 和上...
決策樹 純度和信息熵:決策樹構(gòu)造的過程就是為尋找純凈劃分的過程,數(shù)學(xué)上的解釋图仓,就是讓目標(biāo)變量分歧最小。比如有3個(gè)集合:集合1有6次去打球但绕;集合2有5次去打球救崔,1次不去;集合3...
tf.nn.embedding_lookup的作用就是找到要尋找的embedding data中的對(duì)應(yīng)的行下的vector捏顺。 +CRF 用F1值來評(píng)估 關(guān)于調(diào)參: Valid...
對(duì)于序列標(biāo)注來講六孵,普通CNN有一個(gè)劣勢(shì),就是卷積之后幅骄,末層神經(jīng)元可能只是得到了原始輸入數(shù)據(jù)中一小塊的信息劫窒。而對(duì)NER來講,整個(gè)句子的每個(gè)字都有可能都會(huì)對(duì)當(dāng)前需要標(biāo)注的字做出影...
用的是kaggle上的比賽“Quora Question Paris: Can you identify question pairs that have the same ...
兩個(gè)句子從一開始就交互拆座,這樣就會(huì)獲得更準(zhǔn)確的關(guān)系主巍。圖中可以將單詞與單詞之間的相似度看成是像素冠息,那么對(duì)于兩個(gè)單詞數(shù)為M,N的句子,其相似度矩陣就是M*N孕索,然后逛艰!就可以用卷積搞事...
先看看seq2seq原理: encoder通過學(xué)習(xí)將輸入embedding后傳入rnn網(wǎng)絡(luò)形成一個(gè)固定大小的狀態(tài)向量S,并將S傳給Decoder, Decoder一樣通過學(xué)習(xí)...
比較:其 [aˉi,βi][aˉi,βi] 就是把兩部分concat起來(句子中第 i 個(gè)詞, 和另一個(gè)句子里所有詞與它比較的加權(quán)詞向量) image.png 總計(jì)aggre...
先談一下敏感話題:為什么都說程序員是青春飯搞旭,為什么搞程序到了35歲都會(huì)人人自危散怖?如果你有HR獵頭的朋友,咨詢一下他們肄渗,會(huì)發(fā)現(xiàn)現(xiàn)階段市場(chǎng)對(duì)十年以上的程序員(基本上都35歲+)需...
機(jī)器學(xué)習(xí)分三類: 監(jiān)督學(xué)習(xí):Given D={x,y}, learn y=f(x) 當(dāng)y為離散值時(shí)為分類問題镇眷,當(dāng)y為連續(xù)值時(shí)為回歸問題。常用于語音識(shí)別翎嫡,搜索廣告偏灿,商品推薦,機(jī)...
先看上圖就知道LSTM和CRF具體產(chǎn)出什么。LSTM+softmax分類后只能把特征的上下文關(guān)系學(xué)出來硝桩,CRF可以把label的上下文學(xué)出來沿猜。 比如通過上下文特征,BiLST...
本文以命名實(shí)體識(shí)別NER數(shù)據(jù)預(yù)處理為例 將訓(xùn)練集中每句話變成4個(gè)list: 第一個(gè)list是字碗脊,如[今啼肩,天,去衙伶,北祈坠,京] 第二個(gè)list是char_to_id [3,5,6,...
Word Embedding 之深度學(xué)習(xí) RNN: RNN引入了隱狀態(tài)h(hidden state)的概念,h1接收到前一個(gè)隱狀態(tài)h0和當(dāng)前輸入x1,結(jié)合權(quán)重和bias矢劲,輸出...