NLP學(xué)習(xí)小結(jié)+Transformer極簡(jiǎn)情感二分類

NLP發(fā)展到現(xiàn)在忌卤,一些舊的方法了解即可,早就過時(shí)了楞泼,導(dǎo)圖上打刪除線了驰徊。當(dāng)然了,一些小的場(chǎng)景還可能使用到的堕阔。

導(dǎo)圖

NLP.png

Transformer安裝環(huán)境

3080辣垒,安裝Python=3.9,然后如下印蔬,更高版本老是出錯(cuò)。

conda install pytorch==1.12.0 torchvision==0.13.0 torchaudio==0.12.0 cudatoolkit=11.6
conda install -c huggingface transformers # -c代表源
pip install datasets # 這么好的包名被搶用了啊
pip install evaluate
pip install scikit-learn # 不是sklearn

感覺transformers是個(gè)集大成的傻瓜神器脱衙。

極簡(jiǎn)情感二分類

用到的庫:

from transformers import (AutoModel,
                          AutoModelForSequenceClassification,
                          AutoTokenizer,
                          Trainer,
                          TrainingArguments,
                          EvalPrediction)
import evaluate
from datasets import load_dataset, load_from_disk

import torch
from torch import nn
from torch.utils.data import Dataset, DataLoader

分詞侥猬,也叫符號(hào)化例驹,準(zhǔn)備數(shù)據(jù),會(huì)直接到huggingface網(wǎng)下載退唠,可能需要科學(xué)上網(wǎng):

pt_name = 'bert-base-chinese' # 中文用這個(gè)多一些
tokenizer = AutoTokenizer.from_pretrained(pt_name)

original_ds = load_dataset('seamew/ChnSentiCorp')

def f(data):
    return tokenizer(text=data['text'],
                    padding='max_length',
                    truncation=True,
                    max_length=300,
                    return_tensors='pt',)
ds = original_ds.map(f, batched=True, batch_size=16, remove_columns=['text'])
train_dataset = ds['train'].shuffle()
validation_dataset = ds['validation'].shuffle()
test_dataset = ds['test']

上面也可以用Pytorch常用的繼承Dataset的方式鹃锈。接下來看模型,因?yàn)槭莻€(gè)二分類任務(wù)瞧预,很方便:

model = AutoModelForSequenceClassification.from_pretrained(pt_name, num_labels=2)

accuracy = evaluate.load('accuracy') # 以前的load_metric降被停用
def compute_metrics(eval_pred):
    logits, labels = eval_pred
    logits = logits.argmax(axis=1) # axis, not dim
    return accuracy.compute(predictions=logits, references=labels)
# 測(cè)試下評(píng)估函數(shù)
eval_pred = EvalPrediction(predictions=torch.tensor([[0,1], [2,3]]),
                          label_ids=torch.tensor([1,1]))
compute_metrics(eval_pred)

準(zhǔn)備訓(xùn)練器屎债,這個(gè)集成封裝得太漂亮了。

args = TrainingArguments(output_dir='./output_dir',
                        evaluation_strategy='epoch',
                        num_train_epochs=1,
                        learning_rate=1e-4,
                        weight_decay=1e-2,
                        per_device_eval_batch_size=32,
                        per_device_train_batch_size=16)
trainer = Trainer(model=model,
                 args=args,
                 train_dataset=train_dataset,
                 eval_dataset=validation_dataset,
                 compute_metrics=compute_metrics)
trainer.evaluate() # 看看隨機(jī)初始化的推理垢油,應(yīng)該是55開

開始訓(xùn)練盆驹,直接能給出各種結(jié)果,而且自動(dòng)調(diào)用GPU了滩愁。

trainer.train() # torch.optim.AdamW
trainer.save_model(output_dir='./output_dir/manual')

最后躯喇,推理測(cè)試,用之前準(zhǔn)備的測(cè)試集硝枉。如果只是看看指標(biāo)廉丽,可以:

trainer.evaluate(eval_dataset=test_dataset)

但是想得到詳細(xì)的推理結(jié)果,這里使用PytorchDataLoader來準(zhǔn)備妻味,可能有更方便的方法正压,待研究。

model.eval()

def try_gpu(i=0): # 來自limu
    if torch.cuda.device_count() >= i+1:
        return torch.device(f'cuda:{i}')
    return torch.device('cpu')
device = try_gpu()

def collate_fn(data):
    label = [i['label'] for i in data]
    input_ids = [i['input_ids'] for i in data]
    token_type_ids = [i['token_type_ids'] for i in data]
    attention_mask = [i['attention_mask'] for i in data]

    # 得到的是List, 轉(zhuǎn)成Tensor
    label = torch.LongTensor(label)
    input_ids = torch.LongTensor(input_ids)
    token_type_ids = torch.LongTensor(token_type_ids)
    attention_mask = torch.LongTensor(attention_mask)
    
    return label, input_ids, token_type_ids, attention_mask

test_loader = DataLoader(dataset=test_dataset,
                         collate_fn=collate_fn,
                         batch_size=16)

correct, total = 0, 0
for i, (label, input_ids, token_type_ids, attention_mask) in enumerate(test_loader):
    label = label.to(device)
    input_ids = input_ids.to(device)
    token_type_ids = token_type_ids.to(device)
    attention_mask = attention_mask.to(device)
    
    out = model(input_ids=input_ids, token_type_ids=token_type_ids, attention_mask=attention_mask)
    out = out.logits.argmax(axis=1)
    correct += (out==label).sum().item()
    total += len(label)
    acc = correct / total
    print(f'{acc:.3f}')

如果只是簡(jiǎn)單看看幾句話责球,沒必要大動(dòng)干戈焦履。

sentences = ['這家的菜做得不行。', '房間挺干凈的棕诵,也沒有噪聲']
token_out = tokenizer(sentences,
                padding=True,
                truncation=True,
                return_tensors='pt')
token_out.to(device)
out = model(**token_out)
out = out.logits.argmax(axis=1)
for i, s in enumerate(sentences):
    print(s, out[i].item())

就先這么著裁良。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市校套,隨后出現(xiàn)的幾起案子价脾,更是在濱河造成了極大的恐慌,老刑警劉巖笛匙,帶你破解...
    沈念sama閱讀 211,948評(píng)論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件侨把,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡妹孙,警方通過查閱死者的電腦和手機(jī)秋柄,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,371評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來蠢正,“玉大人骇笔,你說我怎么就攤上這事。” “怎么了笨触?”我有些...
    開封第一講書人閱讀 157,490評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵懦傍,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我芦劣,道長(zhǎng)粗俱,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,521評(píng)論 1 284
  • 正文 為了忘掉前任虚吟,我火速辦了婚禮寸认,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘串慰。我一直安慰自己偏塞,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,627評(píng)論 6 386
  • 文/花漫 我一把揭開白布模庐。 她就那樣靜靜地躺著烛愧,像睡著了一般。 火紅的嫁衣襯著肌膚如雪掂碱。 梳的紋絲不亂的頭發(fā)上怜姿,一...
    開封第一講書人閱讀 49,842評(píng)論 1 290
  • 那天,我揣著相機(jī)與錄音疼燥,去河邊找鬼沧卢。 笑死,一個(gè)胖子當(dāng)著我的面吹牛醉者,可吹牛的內(nèi)容都是我干的但狭。 我是一名探鬼主播,決...
    沈念sama閱讀 38,997評(píng)論 3 408
  • 文/蒼蘭香墨 我猛地睜開眼撬即,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼立磁!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起剥槐,我...
    開封第一講書人閱讀 37,741評(píng)論 0 268
  • 序言:老撾萬榮一對(duì)情侶失蹤唱歧,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后粒竖,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體颅崩,經(jīng)...
    沈念sama閱讀 44,203評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,534評(píng)論 2 327
  • 正文 我和宋清朗相戀三年蕊苗,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了沿后。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 38,673評(píng)論 1 341
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡朽砰,死狀恐怖尖滚,靈堂內(nèi)的尸體忽然破棺而出喉刘,到底是詐尸還是另有隱情,我是刑警寧澤漆弄,帶...
    沈念sama閱讀 34,339評(píng)論 4 330
  • 正文 年R本政府宣布饱搏,位于F島的核電站,受9級(jí)特大地震影響置逻,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜备绽,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,955評(píng)論 3 313
  • 文/蒙蒙 一券坞、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧肺素,春花似錦恨锚、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,770評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至塌西,卻和暖如春他挎,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背捡需。 一陣腳步聲響...
    開封第一講書人閱讀 32,000評(píng)論 1 266
  • 我被黑心中介騙來泰國打工办桨, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人站辉。 一個(gè)月前我還...
    沈念sama閱讀 46,394評(píng)論 2 360
  • 正文 我出身青樓呢撞,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國和親饰剥。 傳聞我的和親對(duì)象是個(gè)殘疾皇子殊霞,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,562評(píng)論 2 349

推薦閱讀更多精彩內(nèi)容