聲明:轉(zhuǎn)載請注明出處挡爵,謝謝:http://www.reibang.com/p/82f1aef7c3da
另外氧敢,更多實時更新的個人學習筆記分享顺呕,請關(guān)注:
知乎:https://www.zhihu.com/people/yuquanle/columns
公眾號:StudyForAI
CSDN地址:http://blog.csdn.net/m0_37306360
Stanford CoreNLP依存句法分析(dependency parse)
安裝:pip install stanfordcorenlp
國內(nèi)源安裝:pip install stanfordcorenlp -i https://pypi.tuna.tsinghua.edu.cn/simple
from stanfordcorenlp import StanfordCoreNLP
使用stanfordcorenlp進行依存句法分析
先下載模型妓局,下載地址:https://nlp.stanford.edu/software/corenlp-backup-download.html
對中文進行依存句法分析
zh_model = StanfordCoreNLP(r'stanford-corenlp-full-2018-02-27', lang='zh')
s_zh = '我愛自然語言處理技術(shù)竞川!'
dep_zh = zh_model.dependency_parse(s_zh)
print(dep_zh)
[('ROOT', 0, 4), ('nsubj', 4, 1), ('advmod', 4, 2), ('nsubj', 4, 3), ('dobj', 4, 5), ('punct', 4, 6)]
對英文進行依存句法分析
eng_model = StanfordCoreNLP(r'stanford-corenlp-full-2018-02-27')
s_eng = 'I love natural language processing technology!'
dep_eng = eng_model.dependency_parse(s_eng)
print(dep_eng)
[('ROOT', 0, 2), ('nsubj', 2, 1), ('amod', 6, 3), ('compound', 6, 4), ('compound', 6, 5), ('dobj', 2, 6), ('punct', 2, 7)]
Hanlp依存句法分析
安裝:pip install pyhanlp
國內(nèi)源安裝:pip install pyhanlp -i https://pypi.tuna.tsinghua.edu.cn/simple
from pyhanlp import *
s_zh = '我愛自然語言處理技術(shù)未状!'
dep_zh = HanLP.parseDependency(s_zh)
print(dep_zh)
1 我 我 r r _ 2 主謂關(guān)系 _ _
2 愛 愛 v v _ 0 核心關(guān)系 _ _
3 自然語言處理 自然語言處理 v v _ 4 定中關(guān)系 _ _
4 技術(shù) 技術(shù) n n _ 2 動賓關(guān)系 _ _
5 配乱! 拐纱! wp w _ 2 標點符號 _ _