python3解析庫lxml

python3解析庫lxml

閱讀目錄

1荤西、python庫lxml的安裝
2寄锐、XPath常用規(guī)則

  • 讀取文本解析節(jié)點
  • 讀取HTML文件進(jìn)行解析
  • 獲取所有節(jié)點
  • 獲取子節(jié)點
  • 獲取父節(jié)點
  • 屬性匹配
  • 文本獲取
  • 屬性獲取
  • 屬性多值匹配
  • 多屬性匹配
  • XPath中的運算符
  • 按序選擇
  • 節(jié)點軸選擇
  • 案例應(yīng)用:抓取TIOBE指數(shù)前20名排行開發(fā)語言

lxml是python的一個解析庫厚满,支持HTML和XML的解析,支持XPath解析方式,而且解析效率非常高

XPath,全稱XML Path Language窜骄,即XML路徑語言,它是一門在XML文檔中查找信息的語言摆屯,它最初是用來搜尋XML文檔的邻遏,但是它同樣適用于HTML文檔的搜索

XPath的選擇功能十分強(qiáng)大,它提供了非常簡明的路徑選擇表達(dá)式虐骑,另外准验,它還提供了超過100個內(nèi)建函數(shù),用于字符串廷没、數(shù)值糊饱、時間的匹配以及節(jié)點、序列的處理等颠黎,幾乎所有我們想要定位的節(jié)點济似,都可以用XPath來選擇

XPath于1999年11月16日成為W3C標(biāo)準(zhǔn),它被設(shè)計為供XSLT盏缤、XPointer以及其他XML解析軟件使用,更多的文檔可以訪問其官方網(wǎng)站:https://www.w3.org/TR/xpath/

大家如果對Python有興趣的話關(guān)注我點個贊唄蓖扑。同時我也整理了一些Python的資料提供給大家:Python編程交流QQ群:535686202

1唉铜、python庫lxml的安裝
windows系統(tǒng)下的安裝:

#pip安裝

pip3 install lxml

#wheel安裝

#下載對應(yīng)系統(tǒng)版本的wheel文件:http://www.lfd.uci.edu/~gohlke/pythonlibs/#lxml

pip3 install lxml-4.2.1-cp36-cp36m-win_amd64.whl

linux下安裝:

yum install -y epel-release libxslt-devel libxml2-devel openssl-devel
pip3 install lxml

驗證安裝:

$python3
>>>import lxml

2、XPath常用規(guī)則

QQ截圖20180803210727.png

(1)讀取文本解析節(jié)點

from lxml import etree

text='''

<div>

<ul>

<li class="item-0"><a href="link1.html">第一個</a></li>

<li class="item-1"><a href="link2.html">second item</a></li>

<li class="item-0"><a href="link5.html">a屬性</a>

</ul>

</div>

'''

html=etree.HTML(text) #初始化生成一個XPath解析對象

result=etree.tostring(html,encoding='utf-8') #解析對象輸出代碼

print(type(html))

print(type(result))

print(result.decode('utf-8'))

#etree會修復(fù)HTML文本節(jié)點

<class 'lxml.etree._Element'>

<class 'bytes'>

<html><body><div>

<ul>

<li class="item-0"><a href="link1.html">第一個</a></li>

<li class="item-1"><a href="link2.html">second item</a></li>

<li class="item-0"><a href="link5.html">a屬性</a>

</li></ul>

</div>

</body></html>

(2)讀取HTML文件進(jìn)行解析

from lxml import etree

html=etree.parse('test.html',etree.HTMLParser()) #指定解析器HTMLParser會根據(jù)文件修復(fù)HTML文件中缺失的如聲明信息

result=etree.tostring(html) #解析成字節(jié)

#result=etree.tostringlist(html) #解析成列表

print(type(html))

print(type(result))

print(result)

#

<class 'lxml.etree._ElementTree'>

<class 'bytes'>

b'<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN" "http://www.w3.org/TR/REC-html40/loose.dtd">\n<html><body><div> \n <ul> \n <li class="item-0"><a href="link1.html">first item</a></li> \n <li class="item-1"><a href="link2.html">second item</a></li> \n <li class="item-inactive"><a href="link3.html">third item</a></li> \n <li class="item-1"><a href="link4.html">fourth item</a></li> \n <li class="item-0"><a href="link5.html">fifth item</a> \n </li></ul> \n </div> \n</body></html>'

(3)獲取所有節(jié)點
返回一個列表每個元素都是Element類型律杠,所有節(jié)點都包含在其中

from lxml import etree

html=etree.parse('test',etree.HTMLParser())

result=html.xpath('//*') #//代表獲取子孫節(jié)點潭流,*代表獲取所有

print(type(html))

print(type(result))

print(result)

#

<class 'lxml.etree._ElementTree'>

<class 'list'>

[<Element html at 0x754b210048>, <Element body at 0x754b210108>, <Element div at 0x754b210148>, <Element ul at 0x754b210188>, <Element li at 0x754b2101c8>, <Element a at 0x754b210248>, <Element li at 0x754b210288>, <Element a at 0x754b2102c8>, <Element li at 0x754b210308>, <Element a at 0x754b210208>, <Element li at 0x754b210348>, <Element a at 0x754b210388>, <Element li at 0x754b2103c8>, <Element a at 0x754b210408>]

如要獲取li節(jié)點,可以使用//后面加上節(jié)點名稱柜去,然后調(diào)用xpath()方法

html.xpath('//li') #獲取所有子孫節(jié)點的li節(jié)點

(4)獲取子節(jié)點
通過/或者//即可查找元素的子節(jié)點或者子孫節(jié)點灰嫉,如果想選擇li節(jié)點的所有直接a節(jié)點,可以這樣使用

result=html.xpath('//li/a') #通過追加/a選擇所有l(wèi)i節(jié)點的所有直接a節(jié)點嗓奢,因為//li用于選中所有l(wèi)i節(jié)點讼撒,/a用于選中l(wèi)i節(jié)點的所有直接子節(jié)點a

(5)獲取父節(jié)點
我們知道通過連續(xù)的/或者//可以查找子節(jié)點或子孫節(jié)點,那么要查找父節(jié)點可以使用..來實現(xiàn)也可以使用parent::來獲取父節(jié)點

from lxml import etree

from lxml.etree import HTMLParser

text='''

<div>

<ul>

<li class="item-0"><a href="link1.html">第一個</a></li>

<li class="item-1"><a href="link2.html">second item</a></li>

</ul>

</div>

'''

html=etree.HTML(text,etree.HTMLParser())

result=html.xpath('//a[@href="link2.html"]/../@class')

result1=html.xpath('//a[@href="link2.html"]/parent::*/@class')

print(result)

print(result1)

#

['item-1']

['item-1']

(6)屬性匹配
在選取的時候,我們還可以用@符號進(jìn)行屬性過濾根盒。比如钳幅,這里如果要選取class為item-1的li節(jié)點,可以這樣實現(xiàn):

from lxml import etree

from lxml.etree import HTMLParser

text='''

<div>

<ul>

<li class="item-0"><a href="link1.html">第一個</a></li>

<li class="item-1"><a href="link2.html">second item</a></li>

</ul>

</div>

'''

html=etree.HTML(text,etree.HTMLParser())

result=html.xpath('//li[@class="item-1"]')

print(result)

(7)文本獲取
我們用XPath中的text()方法獲取節(jié)點中的文本

from lxml import etree

text='''

<div>

<ul>

<li class="item-0"><a href="link1.html">第一個</a></li>

<li class="item-1"><a href="link2.html">second item</a></li>

</ul>

</div>

'''

html=etree.HTML(text,etree.HTMLParser())

result=html.xpath('//li[@class="item-1"]/a/text()') #獲取a節(jié)點下的內(nèi)容

result1=html.xpath('//li[@class="item-1"]//text()') #獲取li下所有子孫節(jié)點的內(nèi)容

print(result)

print(result1)

(8)屬性獲取
使用@符號即可獲取節(jié)點的屬性炎滞,如下:獲取所有l(wèi)i節(jié)點下所有a節(jié)點的href屬性

result=html.xpath('//li/a/@href') #獲取a的href屬性

result=html.xpath('//li//@href') #獲取所有l(wèi)i子孫節(jié)點的href屬性

(9)屬性多值匹配
如果某個屬性的值有多個時敢艰,我們可以使用contains()函數(shù)來獲取

from lxml import etree

text1='''

<div>

<ul>

<li class="aaa item-0"><a href="link1.html">第一個</a></li>

<li class="bbb item-1"><a href="link2.html">second item</a></li>

</ul>

</div>

'''

html=etree.HTML(text1,etree.HTMLParser())

result=html.xpath('//li[@class="aaa"]/a/text()')

result1=html.xpath('//li[contains(@class,"aaa")]/a/text()')

print(result)

print(result1)

#通過第一種方法沒有取到值,通過contains()就能精確匹配到節(jié)點了

[]

['第一個']

(10)多屬性匹配
另外我們還可能遇到一種情況册赛,那就是根據(jù)多個屬性確定一個節(jié)點钠导,這時就需要同時匹配多個屬性,此時可用運用and運算符來連接使用:

from lxml import etree

text1='''

<div>

<ul>

<li class="aaa" name="item"><a href="link1.html">第一個</a></li>

<li class="aaa" name="fore"><a href="link2.html">second item</a></li>

</ul>

</div>

'''

html=etree.HTML(text1,etree.HTMLParser())

result=html.xpath('//li[@class="aaa" and @name="fore"]/a/text()')

result1=html.xpath('//li[contains(@class,"aaa") and @name="fore"]/a/text()')

print(result)

print(result1)

#

['second item']

['second item']

(11)XPath中的運算符


QQ截圖20180803211410.png

(12)按序選擇
有時候森瘪,我們在選擇的時候某些屬性可能同時匹配多個節(jié)點牡属,但我們只想要其中的某個節(jié)點,如第二個節(jié)點或者最后一個節(jié)點柜砾,這時可以利用中括號引入索引的方法獲取特定次序的節(jié)點:

from lxml import etree

text1='''

<div>

<ul>

<li class="aaa" name="item"><a href="link1.html">第一個</a></li>

<li class="aaa" name="item"><a href="link1.html">第二個</a></li>

<li class="aaa" name="item"><a href="link1.html">第三個</a></li>

<li class="aaa" name="item"><a href="link1.html">第四個</a></li>

</ul>

</div>

'''

html=etree.HTML(text1,etree.HTMLParser())

result=html.xpath('//li[contains(@class,"aaa")]/a/text()') #獲取所有l(wèi)i節(jié)點下a節(jié)點的內(nèi)容

result1=html.xpath('//li[1][contains(@class,"aaa")]/a/text()') #獲取第一個

result2=html.xpath('//li[last()][contains(@class,"aaa")]/a/text()') #獲取最后一個

result3=html.xpath('//li[position()>2 and position()<4][contains(@class,"aaa")]/a/text()') #獲取第一個

result4=html.xpath('//li[last()-2][contains(@class,"aaa")]/a/text()') #獲取倒數(shù)第三個

print(result)

print(result1)

print(result2)

print(result3)

print(result4)

#

['第一個', '第二個', '第三個', '第四個']

['第一個']

['第四個']

['第三個']

['第二個']

這里使用了last()湃望、position()函數(shù),在XPath中痰驱,提供了100多個函數(shù)证芭,包括存取、數(shù)值担映、字符串废士、邏輯、節(jié)點蝇完、序列等處理功能

(13)節(jié)點軸選擇
XPath提供了很多節(jié)點選擇方法官硝,包括獲取子元素、兄弟元素短蜕、父元素氢架、祖先元素等,示例如下:

from lxml import etree

text1='''

<div>

<ul>

<li class="aaa" name="item"><a href="link1.html">第一個</a></li>

<li class="aaa" name="item"><a href="link1.html">第二個</a></li>

<li class="aaa" name="item"><a href="link1.html">第三個</a></li>

<li class="aaa" name="item"><a href="link1.html">第四個</a></li>

</ul>

</div>

'''

html=etree.HTML(text1,etree.HTMLParser())

result=html.xpath('//li[1]/ancestor::*') #獲取所有祖先節(jié)點

result1=html.xpath('//li[1]/ancestor::div') #獲取div祖先節(jié)點

result2=html.xpath('//li[1]/attribute::*') #獲取所有屬性值

result3=html.xpath('//li[1]/child::*') #獲取所有直接子節(jié)點

result4=html.xpath('//li[1]/descendant::a') #獲取所有子孫節(jié)點的a節(jié)點

result5=html.xpath('//li[1]/following::*') #獲取當(dāng)前子節(jié)之后的所有節(jié)點

result6=html.xpath('//li[1]/following-sibling::*') #獲取當(dāng)前節(jié)點的所有同級節(jié)點

#

[<Element html at 0x3ca6b960c8>, <Element body at 0x3ca6b96088>, <Element div at 0x3ca6b96188>, <Element ul at 0x3ca6b961c8>]

[<Element div at 0x3ca6b96188>]

['aaa', 'item']

[<Element a at 0x3ca6b96248>]

[<Element a at 0x3ca6b96248>]

[<Element li at 0x3ca6b96308>, <Element a at 0x3ca6b96348>, <Element li at 0x3ca6b96388>, <Element a at 0x3ca6b963c8>, <Element li at 0x3ca6b96408>, <Element a at 0x3ca6b96488>]

[<Element li at 0x3ca6b96308>, <Element li at 0x3ca6b96388>, <Element li at 0x3ca6b96408>]

(14)案例應(yīng)用:抓取TIOBE指數(shù)前20名排行開發(fā)語言

#!/usr/bin/env python

#coding:utf-8

import requests

from requests.exceptions import RequestException

from lxml import etree

from lxml.etree import ParseError

import json

def one_to_page(html):

headers={

'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36'

}

try:

response=requests.get(html,headers=headers)

body=response.text #獲取網(wǎng)頁內(nèi)容

except RequestException as e:

print('request is error!',e)

try:

html=etree.HTML(body,etree.HTMLParser()) #解析HTML文本內(nèi)容

result=html.xpath('//table[contains(@class,"table-top20")]/tbody/tr//text()') #獲取列表數(shù)據(jù)

pos = 0

for i in range(20):

if i == 0:

yield result[i:5]

else:

yield result[pos:pos+5] #返回排名生成器數(shù)據(jù)

pos+=5

except ParseError as e:

print(e.position)

def write_file(data): #將數(shù)據(jù)重新組合成字典寫入文件并輸出

for i in data:

sul={

'2018年6月排行':i[0],

'2017年6排行':i[1],

'開發(fā)語言':i[2],

'評級':i[3],

'變化率':i[4]

}

with open('test.txt','a',encoding='utf-8') as f:

f.write(json.dumps(sul,ensure_ascii=False) + '\n') #必須格式化數(shù)據(jù)

f.close()

print(sul)

return None

def main():

url='https://www.tiobe.com/tiobe-index/'

data=one_to_page(url)

revaule=write_file(data)

if revaule == None:

print('ok')

if __name__ == '__main__':

main()

#

{'2018年6月排行': '1', '2017年6排行': '1', '開發(fā)語言': 'Java', '評級': '15.368%', '變化率': '+0.88%'}

{'2018年6月排行': '2', '2017年6排行': '2', '開發(fā)語言': 'C', '評級': '14.936%', '變化率': '+8.09%'}

{'2018年6月排行': '3', '2017年6排行': '3', '開發(fā)語言': 'C++', '評級': '8.337%', '變化率': '+2.61%'}

{'2018年6月排行': '4', '2017年6排行': '4', '開發(fā)語言': 'Python', '評級': '5.761%', '變化率': '+1.43%'}

{'2018年6月排行': '5', '2017年6排行': '5', '開發(fā)語言': 'C#', '評級': '4.314%', '變化率': '+0.78%'}

{'2018年6月排行': '6', '2017年6排行': '6', '開發(fā)語言': 'Visual Basic .NET', '評級': '3.762%', '變化率': '+0.65%'}

{'2018年6月排行': '7', '2017年6排行': '8', '開發(fā)語言': 'PHP', '評級': '2.881%', '變化率': '+0.11%'}

{'2018年6月排行': '8', '2017年6排行': '7', '開發(fā)語言': 'JavaScript', '評級': '2.495%', '變化率': '-0.53%'}

{'2018年6月排行': '9', '2017年6排行': '-', '開發(fā)語言': 'SQL', '評級': '2.339%', '變化率': '+2.34%'}

{'2018年6月排行': '10', '2017年6排行': '14', '開發(fā)語言': 'R', '評級': '1.452%', '變化率': '-0.70%'}

{'2018年6月排行': '11', '2017年6排行': '11', '開發(fā)語言': 'Ruby', '評級': '1.253%', '變化率': '-0.97%'}

{'2018年6月排行': '12', '2017年6排行': '18', '開發(fā)語言': 'Objective-C', '評級': '1.181%', '變化率': '-0.78%'}

{'2018年6月排行': '13', '2017年6排行': '16', '開發(fā)語言': 'Visual Basic', '評級': '1.154%', '變化率': '-0.86%'}

{'2018年6月排行': '14', '2017年6排行': '9', '開發(fā)語言': 'Perl', '評級': '1.147%', '變化率': '-1.16%'}

{'2018年6月排行': '15', '2017年6排行': '12', '開發(fā)語言': 'Swift', '評級': '1.145%', '變化率': '-1.06%'}

{'2018年6月排行': '16', '2017年6排行': '10', '開發(fā)語言': 'Assembly language', '評級': '0.915%', '變化率': '-1.34%'}

{'2018年6月排行': '17', '2017年6排行': '17', '開發(fā)語言': 'MATLAB', '評級': '0.894%', '變化率': '-1.10%'}

{'2018年6月排行': '18', '2017年6排行': '15', '開發(fā)語言': 'Go', '評級': '0.879%', '變化率': '-1.17%'}

{'2018年6月排行': '19', '2017年6排行': '13', '開發(fā)語言': 'Delphi/Object Pascal', '評級': '0.875%', '變化率': '-1.28%'}

{'2018年6月排行': '20', '2017年6排行': '20', '開發(fā)語言': 'PL/SQL', '評級': '0.848%', '變化率': '-0.72%'}

大家如果對Python有興趣的話關(guān)注我點個贊唄朋魔。同時我也整理了一些Python的資料提供給大家:Python編程交流QQ群:535686202

123.png

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末岖研,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子警检,更是在濱河造成了極大的恐慌孙援,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,366評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件扇雕,死亡現(xiàn)場離奇詭異拓售,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)镶奉,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,521評論 3 395
  • 文/潘曉璐 我一進(jìn)店門础淤,熙熙樓的掌柜王于貴愁眉苦臉地迎上來崭放,“玉大人,你說我怎么就攤上這事值骇∮猓” “怎么了?”我有些...
    開封第一講書人閱讀 165,689評論 0 356
  • 文/不壞的土叔 我叫張陵吱瘩,是天一觀的道長道伟。 經(jīng)常有香客問我,道長使碾,這世上最難降的妖魔是什么蜜徽? 我笑而不...
    開封第一講書人閱讀 58,925評論 1 295
  • 正文 為了忘掉前任,我火速辦了婚禮票摇,結(jié)果婚禮上拘鞋,老公的妹妹穿的比我還像新娘。我一直安慰自己矢门,他們只是感情好盆色,可當(dāng)我...
    茶點故事閱讀 67,942評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著祟剔,像睡著了一般隔躲。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上物延,一...
    開封第一講書人閱讀 51,727評論 1 305
  • 那天宣旱,我揣著相機(jī)與錄音,去河邊找鬼叛薯。 笑死浑吟,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的耗溜。 我是一名探鬼主播组力,決...
    沈念sama閱讀 40,447評論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼抖拴!你這毒婦竟也來了忿项?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,349評論 0 276
  • 序言:老撾萬榮一對情侶失蹤城舞,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后寞酿,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體家夺,經(jīng)...
    沈念sama閱讀 45,820評論 1 317
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,990評論 3 337
  • 正文 我和宋清朗相戀三年伐弹,在試婚紗的時候發(fā)現(xiàn)自己被綠了拉馋。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,127評論 1 351
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖煌茴,靈堂內(nèi)的尸體忽然破棺而出随闺,到底是詐尸還是另有隱情,我是刑警寧澤蔓腐,帶...
    沈念sama閱讀 35,812評論 5 346
  • 正文 年R本政府宣布矩乐,位于F島的核電站,受9級特大地震影響回论,放射性物質(zhì)發(fā)生泄漏散罕。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,471評論 3 331
  • 文/蒙蒙 一傀蓉、第九天 我趴在偏房一處隱蔽的房頂上張望欧漱。 院中可真熱鬧,春花似錦葬燎、人聲如沸误甚。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,017評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽窑邦。三九已至,卻和暖如春岳遥,著一層夾襖步出監(jiān)牢的瞬間奕翔,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,142評論 1 272
  • 我被黑心中介騙來泰國打工浩蓉, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留派继,地道東北人。 一個月前我還...
    沈念sama閱讀 48,388評論 3 373
  • 正文 我出身青樓捻艳,卻偏偏與公主長得像驾窟,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子认轨,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 45,066評論 2 355

推薦閱讀更多精彩內(nèi)容