CSS 選擇器:BeautifulSoup4
官方文檔:http://beautifulsoup.readthedocs.io/zh_CN/v4.4.0
和 lxml 一樣年扩,Beautiful Soup 也是一個HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 數(shù)據(jù)媒峡。
lxml 只會局部遍歷糊渊,而Beautiful Soup 是基于HTML DOM的渺绒,會載入整個文檔,解析整個DOM樹躏鱼,因此時間和內(nèi)存開銷都會大很多染苛,所以性能要低于lxml主到。
BeautifulSoup 用來解析 HTML 比較簡單登钥,API非常人性化,支持CSS選擇器茉唉、Python標準庫中的HTML解析器度陆,也支持 lxml 的 XML解析器献幔。
Beautiful Soup 3 目前已經(jīng)停止開發(fā)蜡感,推薦現(xiàn)在的項目使用Beautiful Soup 4恃泪。使用 pip 安裝即可:pip3 install beautifulsoup4
抓取工具 | 速度 | 使用難度 | 安裝難度 |
---|---|---|---|
正則 | 最快 | 困難 | 無(內(nèi)置) |
BeautifulSoup | 慢 | 最簡單 | 簡單 |
lxml | 快 | 簡單 | 一般 |
示例: 首先必須要導入 bs4 庫
# beautifulsoup4_test.py
from bs4 import BeautifulSoup
html = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a class="sister" id="link1"><!-- Elsie --></a>,
<a class="sister" id="link2">Lacie</a> and
<a class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""
#創(chuàng)建 Beautiful Soup 對象
soup = BeautifulSoup(html)
#也可以以打開本地 HTML 文件的方式來創(chuàng)建對象
#soup = BeautifulSoup(open('index.html'))
#格式化輸出 soup 對象的內(nèi)容
print(soup.prettify())
運行結(jié)果:
<html>
<head>
<title>
The Dormouse's story
</title>
</head>
<body>
<p class="title" name="dromouse">
<b>
The Dormouse's story
</b>
</p>
<p class="story">
Once upon a time there were three little sisters; and their names were
<a class="sister" id="link1">
<!-- Elsie -->
</a>
,
<a class="sister" id="link2">
Lacie
</a>
and
<a class="sister" id="link3">
Tillie
</a>
;
and they lived at the bottom of a well.
</p>
<p class="story">
...
</p>
</body>
</html>
如果我們在執(zhí)行時,看到這樣一段警告:
意思是,如果我們沒有顯式地指定解析器虫几,所以默認使用這個系統(tǒng)的最佳可用HTML解析器(“l(fā)xml”)辆脸。如果你在另一個系統(tǒng)中運行這段代碼啡氢,或者在不同的虛擬環(huán)境中,使用不同的解析器造成行為不同浪箭。
-
但是我們可以通過
soup = BeautifulSoup(html,“l(fā)xml”)
方式指定lxml解析器,如果'lxml'
失敗,使用soup = BeautifulSoup(html,“html.parser”)
四大對象種類
- Beautiful Soup將復雜HTML文檔轉(zhuǎn)換成一個復雜的樹形結(jié)構(gòu),每個節(jié)點都是Python對象,所有對象可以歸納為4種:
- Tag
- NavigableString
- BeautifulSoup
- Comment
Tag 通俗點講就是 HTML 中的一個個標簽,例如:
<head><title>The Dormouse's story</title></head>
<a class="sister" id="link1"><!-- Elsie --></a>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>
上面的 title head a p等等 HTML 標簽加上里面包括的內(nèi)容就是 Tag门坷,那么試著使用 Beautiful Soup 來獲取 Tags:
from bs4 import BeautifulSoup
html = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a class="sister" id="link1"><!-- Elsie --></a>,
<a class="sister" id="link2">Lacie</a> and
<a class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""
#創(chuàng)建 Beautiful Soup 對象
soup = BeautifulSoup(html,'lxml')
print(soup.title)
# <title>The Dormouse's story</title>
print(soup.head)
# <head><title>The Dormouse's story</title></head>
print(soup.a)
# <a class="sister" id="link1"><!-- Elsie --></a>
print(soup.p)
# <p class="title" name="dromouse"><b>The Dormouse's story</b></p>
print(type(soup.p))
# <class 'bs4.element.Tag'>
我們可以利用 soup 加標簽名輕松地獲取這些標簽的內(nèi)容,這些對象的類型是bs4.element.Tag绸吸。但是注意设江,它查找的是在所有內(nèi)容中的第一個符合要求的標簽叉存。如果要查詢所有的標簽,后面會進行介紹稿存。
對于 Tag瓣履,它有兩個重要的屬性袖迎,是 name 和 attrs
print(soup.name)
# [document] #soup 對象本身比較特殊,它的 name 即為 [document]
print (soup.head.name)
# head #對于其他內(nèi)部標簽浴韭,輸出的值便為標簽本身的名稱
print (soup.p.attrs)
# {'class': ['title'], 'name': 'dromouse'}
# 在這里念颈,我們把 p 標簽的所有屬性打印輸出了出來榴芳,得到的類型是一個字典跺撼。
print (soup.p['class'] # soup.p.get('class'))
# ['title'] #還可以利用get方法歉井,傳入屬性的名稱哩至,二者是等價的
soup.p['class'] = "newClass"
print soup.p # 可以對這些屬性和內(nèi)容等等進行修改
# <p class="newClass" name="dromouse"><b>The Dormouse's story</b></p>
2. NavigableString
既然我們已經(jīng)得到了標簽的內(nèi)容菩貌,那么問題來了箭阶,我們要想獲取標簽內(nèi)部的文字怎么辦呢仇参?很簡單冈敛,用 .string 即可,例如
print (soup.p.string)
# The Dormouse's story
print (type(soup.p.string))
# In [13]: <class 'bs4.element.NavigableString'>
3. BeautifulSoup BeautifulSoup 對象表示的是一個文檔的內(nèi)容暮蹂。大部分時候,可以把它當作 Tag 對象仰泻,是一個特殊的 Tag集侯,我們可以分別獲取它的類型棠枉,名稱辈讶,以及屬性來感受一下
print type(soup.name)
# <type 'unicode'>
print soup.name
# [document]
print soup.attrs # 文檔本身的屬性為空
# {}
4. Comment Comment 對象是一個特殊類型的 NavigableString 對象生闲,其輸出的內(nèi)容不包括注釋符號碍讯。
print soup.a
# <a class="sister" id="link1"><!-- Elsie --></a>
print soup.a.string
# Elsie
print type(soup.a.string)
# <class 'bs4.element.Comment'>
- a 標簽里的內(nèi)容實際上是注釋捉兴,但是如果我們利用 .string 來輸出它的內(nèi)容時难衰,注釋符號已經(jīng)去掉了
CSS選擇器
寫 CSS 時盖袭,標簽名不加任何修飾鳄虱,類名前加 '.' 拙已,id名前加 '#'
在這里我們也可以利用類似的方法來篩選元素倍踪,用到的方法是 soup.select(),返回類型是 list
(1)通過標簽名查找
print(soup.select('title'))
#[<title>The Dormouse's story</title>]
print soup.select('a')
#[<a class="sister" id="link1"><!-- Elsie --></a>, <a class="sister" id="link2">Lacie</a>, <a class="sister" id="link3">Tillie</a>]
print soup.select('b')
#[<b>The Dormouse's story</b>]
(2)通過類名查找
print soup.select('.sister')
#[<a class="sister" id="link1"><!-- Elsie --></a>, <a class="sister" id="link2">Lacie</a>, <a class="sister" id="link3">Tillie</a>]
(3)通過 id 名查找
print soup.select('#link1')
#[<a class="sister" id="link1"><!-- Elsie --></a>]
(4)組合查找
- 組合查找即和寫 class 文件時,標簽名與類名康谆、id名進行的組合原理是一樣的沃暗,例如查找 p 標簽中,id 等于 link1的內(nèi)容忱叭,二者需要用空格分開
print soup.select('p #link1')
#[<a class="sister" id="link1"><!-- Elsie --></a>]
- 直接子標簽查找韵丑,則使用 > 分隔
print soup.select("head > title")
#[<title>The Dormouse's story</title>]
(5)屬性查找
- 查找時還可以加入屬性元素,屬性需要用中括號括起來陌僵,注意屬性和標簽屬于同一節(jié)點碗短,所以中間不能加空格偎谁,否則會無法匹配到巡雨。
print(soup.select('a[class="sister"]'))
#[<a class="sister" id="link1"><!-- Elsie --></a>, <a class="sister" id="link2">Lacie</a>, <a class="sister" id="link3">Tillie</a>]
print (soup.select('a[))
#[<a class="sister" id="link1"><!-- Elsie --></a>]
同樣,屬性仍然可以與上述查找方式組合正蛙,不在同一節(jié)點的空格隔開咽筋,同一節(jié)點的不加空格
print (soup.select('p a[))
#[<a class="sister" id="link1"><!-- Elsie --></a>]
(6) 獲取內(nèi)容
- 以上的 select 方法返回的結(jié)果都是列表形式奸攻,可以遍歷形式輸出睹耐,然后用 get_text() 方法來獲取它的內(nèi)容。
soup = BeautifulSoup(html, 'lxml')
print (type(soup.select('title')))
print (soup.select('title')[0].get_text())
for title in soup.select('title'):
print (title.get_text())
result = BeautifulSoup(response.text,'lxml')
# print(result)
tr = result.select('a')
# print(tr)
for i in tr:
print(i["href"])#獲取href屬性