常見文本分類模型

1. Fasttext

1.1 模型架構(gòu)

Fasttext模型架構(gòu)和Word2vecCBOW模型架構(gòu)非常相似镊尺,下面就是FastText模型的架構(gòu)圖:


從上圖可以看出來耳璧,Fasttext模型包括輸入層、隱含層、輸出層共三層。其中輸入的是詞向量棚饵,輸出的是label,隱含層是對(duì)多個(gè)詞向量的疊加平均

  • CBOW的輸入是目標(biāo)單詞的上下文掩完,Fasttext的輸入是多個(gè)單詞及其n-gram特征噪漾,這些單詞用來表示單個(gè)文檔
  • CBOW的輸入單詞使用one-hot編碼,Fasttext的輸入特征時(shí)使用embedding編碼
  • CBOW的輸出是目標(biāo)詞匯且蓬,Fasttext的輸出是文檔對(duì)應(yīng)的類別

1.2 模型實(shí)現(xiàn)

class Model(nn.Module):
    def __init__(self, config):
        super(Model, self).__init__()
        self.embedding = nn.Embedding(config.n_vocab, config.embed, padding_idx=config.n_vocab - 1)
        self.embedding_ngram2 = nn.Embedding(config.n_gram_vocab, config.embed)
        self.embedding_ngram3 = nn.Embedding(config.n_gram_vocab, config.embed)
        self.dropout = nn.Dropout(config.dropout)
        self.fc1 = nn.Linear(config.embed * 3, config.hidden_size)
        # self.dropout2 = nn.Dropout(config.dropout)
        self.fc2 = nn.Linear(config.hidden_size, config.num_classes)
    def forward(self, x):
        out_word = self.embedding(x[0])
        out_bigram = self.embedding_ngram2(x[2])
        out_trigram = self.embedding_ngram3(x[3])
        out = torch.cat((out_word, out_bigram, out_trigram), -1)
        out = out.mean(dim=1)
        out = self.dropout(out)
        out = self.fc1(out)
        out = F.relu(out)
        out = self.fc2(out)
        return out

2. TextCNN

2.1 模型架構(gòu)

與傳統(tǒng)圖像的CNN網(wǎng)絡(luò)相比,TextCNN在網(wǎng)絡(luò)結(jié)構(gòu)上沒有任何變化, 從下圖可以看出TextCNN其實(shí)只有一層convolution欣硼,一層max-pooling, 最后將輸出外接softmaxn分類

2.2 模型實(shí)現(xiàn)

class Model(nn.Module):
    def __init__(self, config):
        super(Model, self).__init__()
        self.embedding = nn.Embedding(config.n_vocab, config.embed, padding_idx=config.n_vocab - 1)
        self.convs = nn.ModuleList([nn.Conv2d(1, config.num_filters, (k, config.embed)) for k in config.filter_sizes])
        self.dropout = nn.Dropout(config.dropout)
        self.fc = nn.Linear(config.num_filters * len(config.filter_sizes), config.num_classes)
    def conv_and_pool(self, x, conv):
        x = F.relu(conv(x)).squeeze(3)
        x = F.max_pool1d(x, x.size(2)).squeeze(2)
        return x
    def forward(self, x):
        out = self.embedding(x[0])
        out = out.unsqueeze(1)
        out = torch.cat([self.conv_and_pool(out, conv) for conv in self.convs], 1)
        out = self.dropout(out)
        out = self.fc(out)
        return 

3. TextRNN

3.1 模型架構(gòu)

一般取前向/反向LSTM在最后一個(gè)時(shí)間步長上隱藏狀態(tài),然后進(jìn)行拼接恶阴,在經(jīng)過一個(gè)softmax層進(jìn)行一個(gè)多分類诈胜;或者取前向/反向LSTM在每一個(gè)時(shí)間步長上的隱藏狀態(tài)豹障,對(duì)每一個(gè)時(shí)間步長上的兩個(gè)隱藏狀態(tài)進(jìn)行拼接concat,然后對(duì)所有時(shí)間步長上拼接后的隱藏狀態(tài)取均值耘斩,再經(jīng)過一個(gè)softmax層進(jìn)行一個(gè)多分類

3.2 模型實(shí)現(xiàn)

class Model(nn.Module):
    def __init__(self, config):
        super(Model, self).__init__()
        self.embedding = nn.Embedding(config.n_vocab, config.embed, padding_idx=config.n_vocab - 1)
        self.lstm = nn.LSTM(config.embed, config.hidden_size, config.num_layers, bidirectional=True, batch_first=True, dropout=config.dropout)
        self.fc = nn.Linear(config.hidden_size * 2, config.num_classes)
    def forward(self, x):
        x, _ = x
        out = self.embedding(x)       # [batch_size, seq_len, embeding]=[128, 32, 300]
        out, _ = self.lstm(out)
        out = self.fc(out[:, -1, :])  # 句子最后時(shí)刻的 hidden state
        return out

4. TextRCNN

4.1 模型架構(gòu)

TextCNN比較類似沼填,都是把文本表示為一個(gè)嵌入矩陣,再進(jìn)行卷積操作括授。不同的是TextCNN中的文本嵌入矩陣每一行只是文本中一個(gè)詞的向量表示,而在RCNN中岩饼,文本嵌入矩陣的每一行是當(dāng)前詞的詞向量以及上下文嵌入表示的拼接

4.2 模型實(shí)現(xiàn)

class Model(nn.Module):
    def __init__(self, config):
        super(Model, self).__init__()
        self.embedding = nn.Embedding(config.n_vocab, config.embed, padding_idx=config.n_vocab - 1)
        self.lstm = nn.LSTM(config.embed, config.hidden_size, config.num_layers, bidirectional=True, batch_first=True, dropout=config.dropout)
        self.maxpool = nn.MaxPool1d(config.pad_size)
        self.fc = nn.Linear(config.hidden_size * 2 + config.embed, config.num_classes)
    def forward(self, x):
        x, _ = x
        embed = self.embedding(x)  # [batch_size, seq_len, embeding]=[64, 32, 64]
        out, _ = self.lstm(embed)
        out = torch.cat((embed, out), 2)
        out = F.relu(out)
        out = out.permute(0, 2, 1)
        out = self.maxpool(out).squeeze()
        out = self.fc(out)
        return 

5. BiLSTM_Attention

5.1 模型架構(gòu)

相對(duì)于以前的文本分類中的BiLSTM模型荚虚,BiLSTM+Attention模型的主要區(qū)別是在BiLSTM層之后,全連接softmax分類層之前接入了一個(gè)叫做Attention Layer的結(jié)構(gòu)

5.2 模型實(shí)現(xiàn)

class Model(nn.Module):
    def __init__(self, config):
        super(Model, self).__init__()
        self.embedding = nn.Embedding(config.n_vocab, config.embed, padding_idx=config.n_vocab - 1)
        self.lstm = nn.LSTM(config.embed, config.hidden_size, config.num_layers, bidirectional=True, batch_first=True, dropout=config.dropout)
        self.tanh1 = nn.Tanh()
        self.w = nn.Parameter(torch.zeros(config.hidden_size * 2))
        self.tanh2 = nn.Tanh()
        self.fc1 = nn.Linear(config.hidden_size * 2, config.hidden_size2)
        self.fc = nn.Linear(config.hidden_size2, config.num_classes)
    def forward(self, x):
        x, _ = x
        emb = self.embedding(x)  # [batch_size, seq_len, embeding]=[128, 32, 300]
        H, _ = self.lstm(emb)  # [batch_size, seq_len, hidden_size * num_direction]=[128, 32, 256]
        M = self.tanh1(H)  # [128, 32, 256]
        alpha = F.softmax(torch.matmul(M, self.w), dim=1).unsqueeze(-1)  # [128, 32, 1]
        out = H * alpha  # [128, 32, 256]
        out = torch.sum(out, 1)  # [128, 256]
        out = F.relu(out)
        out = self.fc1(out)
        out = self.fc(out)  # [128, 64]
        return out

6. DPCNN

6.1 模型架構(gòu)

第一層采用text region embedding籍茧,其實(shí)就是對(duì)一個(gè)n-gram文本塊進(jìn)行卷積渴析,得到的feature maps作為該文本塊的embedding漓帚。然后是convolution blocks的堆疊毡们,就是兩個(gè)卷積層與shortcut的組合。convolution blocks中間采用max-pooling,設(shè)置步長為2以進(jìn)行負(fù)采樣脖隶。最后一個(gè)pooling層將每個(gè)文檔的數(shù)據(jù)整合成一個(gè)向量

6.2 模型實(shí)現(xiàn)

class Model(nn.Module):
    def __init__(self, config):
        super(Model, self).__init__()
        self.embedding = nn.Embedding(config.n_vocab, config.embed, padding_idx=config.n_vocab - 1)
        self.conv_region = nn.Conv2d(1, config.num_filters, (3, config.embed), stride=1)
        self.conv = nn.Conv2d(config.num_filters, config.num_filters, (3, 1), stride=1)
        self.max_pool = nn.MaxPool2d(kernel_size=(3, 1), stride=2)
        self.padding1 = nn.ZeroPad2d((0, 0, 1, 1))  # top bottom
        self.padding2 = nn.ZeroPad2d((0, 0, 0, 1))  # bottom
        self.relu = nn.ReLU()
        self.fc = nn.Linear(config.num_filters, config.num_classes)
    def forward(self, x):
        x = x[0]
        x = self.embedding(x)
        x = x.unsqueeze(1)  # [batch_size, 250, seq_len, 1]
        x = self.conv_region(x)  # [batch_size, 250, seq_len-3+1, 1]

        x = self.padding1(x)  # [batch_size, 250, seq_len, 1]
        x = self.relu(x)
        x = self.conv(x)  # [batch_size, 250, seq_len-3+1, 1]
        x = self.padding1(x)  # [batch_size, 250, seq_len, 1]
        x = self.relu(x)
        x = self.conv(x)  # [batch_size, 250, seq_len-3+1, 1]
        while x.size()[2] > 2:
            x = self._block(x)
        x = x.squeeze()  # [batch_size, num_filters(250)]
        x = self.fc(x)
        return x
    def _block(self, x):
        x = self.padding2(x)
        px = self.max_pool(x)
        x = self.padding1(px)
        x = F.relu(x)
        x = self.conv(x)
        x = self.padding1(x)
        x = F.relu(x)
        x = self.conv(x)
        x = x + px
        return x

NLP新人庄敛,歡迎大家一起交流,互相學(xué)習(xí)涎显,共同成長~~

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末讨勤,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,755評(píng)論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件疼邀,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)蹬铺,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,305評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門尝哆,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人甜攀,你說我怎么就攤上這事秋泄。” “怎么了赴邻?”我有些...
    開封第一講書人閱讀 165,138評(píng)論 0 355
  • 文/不壞的土叔 我叫張陵印衔,是天一觀的道長。 經(jīng)常有香客問我姥敛,道長,這世上最難降的妖魔是什么瞎暑? 我笑而不...
    開封第一講書人閱讀 58,791評(píng)論 1 295
  • 正文 為了忘掉前任彤敛,我火速辦了婚禮,結(jié)果婚禮上了赌,老公的妹妹穿的比我還像新娘墨榄。我一直安慰自己,他們只是感情好勿她,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,794評(píng)論 6 392
  • 文/花漫 我一把揭開白布袄秩。 她就那樣靜靜地躺著,像睡著了一般逢并。 火紅的嫁衣襯著肌膚如雪之剧。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,631評(píng)論 1 305
  • 那天砍聊,我揣著相機(jī)與錄音背稼,去河邊找鬼。 笑死玻蝌,一個(gè)胖子當(dāng)著我的面吹牛蟹肘,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播俯树,決...
    沈念sama閱讀 40,362評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼帘腹,長吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了许饿?” 一聲冷哼從身側(cè)響起阳欲,我...
    開封第一講書人閱讀 39,264評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤帘营,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后艘希,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體血当,經(jīng)...
    沈念sama閱讀 45,724評(píng)論 1 315
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,900評(píng)論 3 336
  • 正文 我和宋清朗相戀三年赊窥,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了爆惧。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,040評(píng)論 1 350
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡锨能,死狀恐怖扯再,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情址遇,我是刑警寧澤熄阻,帶...
    沈念sama閱讀 35,742評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站倔约,受9級(jí)特大地震影響秃殉,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜浸剩,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,364評(píng)論 3 330
  • 文/蒙蒙 一钾军、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧绢要,春花似錦吏恭、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,944評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至剿配,卻和暖如春搅幅,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背惨篱。 一陣腳步聲響...
    開封第一講書人閱讀 33,060評(píng)論 1 270
  • 我被黑心中介騙來泰國打工盏筐, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人砸讳。 一個(gè)月前我還...
    沈念sama閱讀 48,247評(píng)論 3 371
  • 正文 我出身青樓琢融,卻偏偏與公主長得像,于是被迫代替她去往敵國和親簿寂。 傳聞我的和親對(duì)象是個(gè)殘疾皇子漾抬,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,979評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容