pyltp安裝及模型下載
可以使用pip直接安裝,如果安裝失敗霜旧,建議下載源碼進行手動編譯撩穿。
pip install pyltp
安裝pyltp后霍弹,下載模型文件,百度云地址在這身弊。
我下載的是ltp-data-v3.3.1.tar.bz2辟汰。然后將下載到的模型解壓,存放在任意地方阱佛。
注意:版本對應
- pyltp版本:0.1.9
- LTP版本:3.3.2
- 模型版本:3.3.1
上面兩步都完成后帖汞,我們就可以使用pyltp進行一些文本操作了,例如:分句凑术,分詞翩蘸,詞性標注,命名實體識別以及依存句法等麦萤。
pyltp語言云的使用
分句 - SentenceSplitter
from pyltp import SentenceSplitter
sentence = SentenceSplitter.split('我是逗號鹿鳖,我是句號扁眯。我是問號?我是感嘆號翅帜!')
print '\n'.join(sentence)
分句結果如下:
我是逗號姻檀,我是句號。
我是問號涝滴?
我是感嘆號绣版!
分詞 - Segmentor
import os
LTP_DATA_DIR = '/path/to/your/ltp_data' # ltp模型目錄的路徑
cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model') # 分詞模型路徑,模型名稱為`cws.model`
from pyltp import Segmentor
segmentor = Segmentor() # 初始化實例
segmentor.load(cws_model_path) # 加載模型
words = segmentor.segment('歐幾里得是西元前三世紀的希臘數學家歼疮。') # 分詞
print ' '.join(words)
segmentor.release() # 釋放模型
分詞結果如下杂抽,【歐幾里得】被拆成了四個單獨的字。
歐 幾 里 得 是 西元前 三 世紀 的 希臘 數學家 韩脏。
pyltp分詞支持用戶使用自定義詞典缩麸。分詞外部詞典本身是一個文本文件,每行指定一個詞赡矢,編碼須為 UTF-8杭朱,樣例如下所示:
歐幾里得
亞里士多德
使用自定義詞典進行分詞的模型加載方式如下:
segmentor = Segmentor() # 初始化實例
segmentor.load_with_lexicon(cws_model_path, '/path/to/your/lexicon') # 加載模型,參數lexicon是自定義詞典的文件路徑
words = segmentor.segment('歐幾里得是西元前三世紀的希臘數學家吹散。')
print ' '.join(words)
segmentor.release()
自定義詞典弧械,分詞結果如下,分詞效果明顯得到改善空民。
歐幾里得 是 西元前 三 世紀 的 希臘 數學家 刃唐。
詞性標注 - Postagger
pos_model_path = os.path.join(LTP_DATA_DIR, 'pos.model') # 詞性標注模型路徑,模型名稱為`pos.model`
from pyltp import Postagger
postagger = Postagger() # 初始化實例
postagger.load(pos_model_path) # 加載模型
words = ['歐幾里得', '是', '西元前', '三', '世紀', '的', '希臘', '數學家', '界轩。']
postags = postagger.postag(words) # 詞性標注
print ' '.join(postags)
postagger.release() # 釋放模型
詞性標注結果如下画饥,如果想了解更多的詞性含義。請參考語言云詞性標注簡介耸棒。
nh v nt m n u ns n wp
# 歐幾里得 - nh - 人名
# 是 - v - 動詞
# 西元前 - nt - 時間名詞
# 三 - m - 數字
# 世紀 - n - 普通名詞
# 的 - u - 助詞
# 希臘 - ns - 地理名詞
# 數學家- n - 普通名詞
# 荒澡。 - wp - 標點符號
命名實體識別 - NamedEntityRecognizer
ner_model_path = os.path.join(LTP_DATA_DIR, 'ner.model') # 命名實體識別模型路徑,模型名稱為`ner.model`
from pyltp import NamedEntityRecognizer
recognizer = NamedEntityRecognizer() # 初始化實例
recognizer.load(ner_model_path) # 加載模型
words = ['歐幾里得', '是', '西元前', '三', '世紀', '的', '希臘', '數學家', '与殃。']
postags = ['nh', 'v', 'nt', 'm', 'n', 'u', 'ns', 'n', 'wp']
nertags = recognizer.recognize(words, postags) # 命名實體識別
print ' '.join(nertags)
recognizer.release() # 釋放模型
命名實體結果如下单山,ltp命名實體類型為:人名(Nh),地名(NS)幅疼,機構名(Ni)米奸;ltp采用BIESO標注體系。B表示實體開始詞爽篷,I表示實體中間詞悴晰,E表示實體結束詞,S表示單獨成實體,O表示不構成實體铡溪。
S-Nh O O O O O S-Ns O O
# 歐幾里得 - S-Nh - 人名
# 希臘 - S-Ns - 地名
依存句法分析 - Parser
par_model_path = os.path.join(LTP_DATA_DIR, 'parser.model') # 依存句法分析模型路徑漂辐,模型名稱為`parser.model`
from pyltp import Parser
parser = Parser() # 初始化實例
parser.load(par_model_path) # 加載模型
words = ['歐幾里得', '是', '西元前', '三', '世紀', '的', '希臘', '數學家', '。']
postags = ['nh', 'v', 'nt', 'm', 'n', 'u', 'ns', 'n', 'wp']
arcs = parser.parse(words, postags) # 句法分析
rely_id = [arc.head for arc in arcs] # 提取依存父節(jié)點id
relation = [arc.relation for arc in arcs] # 提取依存關系
heads = ['Root' if id == 0 else words[id-1] for id in rely_id] # 匹配依存父節(jié)點詞語
for i in range(len(words)):
print relation[i] + '(' + words[i] + ', ' + heads[i] + ')'
parser.release() # 釋放模型
依存句法分析棕硫,輸出結果如下髓涯,關于依存句法分析,詳細參照語言云依存句法簡介哈扮。
SBV(歐幾里得, 是)
HED(是, Root)
ATT(西元前, 世紀)
ATT(三, 世紀)
ATT(世紀, 數學家)
RAD(的, 世紀)
ATT(希臘, 數學家)
VOB(數學家, 是)
WP(纬纪。, 是)