BeautifulSoup4庫

BeautifulSoup4庫

和 lxml 一樣祟敛,Beautiful Soup 也是一個HTML/XML的解析器孤页,主要的功能也是如何解析和提取 HTML/XML 數據。
lxml 只會局部遍歷,而Beautiful Soup 是基于HTML DOM(Document Object Model)的泊窘,會載入整個文檔逼争,解析整個DOM樹优床,因此時間和內存開銷都會大很多,所以性能要低于lxml誓焦。
BeautifulSoup 用來解析 HTML 比較簡單胆敞,API非常人性化,支持CSS選擇器、Python標準庫中的HTML解析器移层,也支持 lxml 的 XML解析器仍翰。
Beautiful Soup 3 目前已經停止開發(fā),推薦現在的項目使用Beautiful Soup 4观话。

安裝和文檔:

  1. 安裝:pip install bs4予借。
  2. 中文文檔:https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html

幾大解析工具對比:

解析工具 解析速度 使用難度
BeautifulSoup 最慢 最簡單
lxml 簡單
正則 最快 最難

簡單使用:

from bs4 import BeautifulSoup

html = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a  class="sister" id="link1"><!-- Elsie --></a>,
<a  class="sister" id="link2">Lacie</a> and
<a  class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""

#創(chuàng)建 Beautiful Soup 對象
# 使用lxml來進行解析
soup = BeautifulSoup(html,"lxml")

print(soup.prettify())

四個常用的對象:

Beautiful Soup將復雜HTML文檔轉換成一個復雜的樹形結構,每個節(jié)點都是Python對象,所有對象可以歸納為4種:

  1. Tag
  2. NavigatableString
  3. BeautifulSoup
  4. Comment

1. Tag:

Tag 通俗點講就是 HTML 中的一個個標簽。示例代碼如下:

from bs4 import BeautifulSoup

html = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a  class="sister" id="link1"><!-- Elsie --></a>,
<a  class="sister" id="link2">Lacie</a> and
<a  class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""

#創(chuàng)建 Beautiful Soup 對象
soup = BeautifulSoup(html,'lxml')


print soup.title
# <title>The Dormouse's story</title>

print soup.head
# <head><title>The Dormouse's story</title></head>

print soup.a
# <a class="sister"  id="link1"><!-- Elsie --></a>

print soup.p
# <p class="title" name="dromouse"><b>The Dormouse's story</b></p>

print type(soup.p)
# <class 'bs4.element.Tag'>

我們可以利用 soup 加標簽名輕松地獲取這些標簽的內容频蛔,這些對象的類型是bs4.element.Tag蕾羊。但是注意,它查找的是在所有內容中的第一個符合要求的標簽帽驯。如果要查詢所有的標簽龟再,后面會進行介紹。
對于Tag尼变,它有兩個重要的屬性利凑,分別是name和attrs。示例代碼如下:

print soup.name
# [document] #soup 對象本身比較特殊嫌术,它的 name 即為 [document]

print soup.head.name
# head #對于其他內部標簽哀澈,輸出的值便為標簽本身的名稱

print soup.p.attrs
# {'class': ['title'], 'name': 'dromouse'}
# 在這里,我們把 p 標簽的所有屬性打印輸出了出來度气,得到的類型是一個字典割按。

print soup.p['class'] # soup.p.get('class')
# ['title'] #還可以利用get方法,傳入屬性的名稱磷籍,二者是等價的

soup.p['class'] = "newClass"
print soup.p # 可以對這些屬性和內容等等進行修改
# <p class="newClass" name="dromouse"><b>The Dormouse's story</b></p>

2. NavigableString:

如果拿到標簽后适荣,還想獲取標簽中的內容。那么可以通過tag.string獲取標簽中的文字院领。示例代碼如下:

print soup.p.string
# The Dormouse's story

print type(soup.p.string)
# <class 'bs4.element.NavigableString'>thon

3. BeautifulSoup:

BeautifulSoup 對象表示的是一個文檔的全部內容.大部分時候,可以把它當作 Tag 對象,它支持 遍歷文檔樹 和 搜索文檔樹 中描述的大部分的方法.
因為 BeautifulSoup 對象并不是真正的HTML或XML的tag,所以它沒有name和attribute屬性.但有時查看它的 .name 屬性是很方便的,所以 BeautifulSoup 對象包含了一個值為 “[document]” 的特殊屬性 .name

soup.name
# '[document]'

4. Comment:

Tag , NavigableString , BeautifulSoup 幾乎覆蓋了html和xml中的所有內容,但是還有一些特殊對象.容易讓人擔心的內容是文檔的注釋部分:

markup = "<b><!--Hey, buddy. Want to buy a used parser?--></b>"
soup = BeautifulSoup(markup)
comment = soup.b.string
type(comment)
# <class 'bs4.element.Comment'>

Comment 對象是一個特殊類型的 NavigableString 對象:

comment
# 'Hey, buddy. Want to buy a used parser'

遍歷文檔樹:

1. contents和children:

html_doc = """
<html><head><title>The Dormouse's story</title></head>

<p class="title"><b>The Dormouse's story</b></p>

<p class="story">Once upon a time there were three little sisters; and their names were
<a  class="sister" id="link1">Elsie</a>,
<a  class="sister" id="link2">Lacie</a> and
<a  class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>

<p class="story">...</p>
"""

from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc,'lxml')

head_tag = soup.head
# 返回所有子節(jié)點的列表
print(head_tag.contents)

# 返回所有子節(jié)點的迭代器
for child in head_tag.children:
    print(child)

2. strings 和 stripped_strings

如果tag中包含多個字符串 [2] ,可以使用 .strings 來循環(huán)獲瘸诿:

for string in soup.strings:
    print(repr(string))
    # u"The Dormouse's story"
    # u'\n\n'
    # u"The Dormouse's story"
    # u'\n\n'
    # u'Once upon a time there were three little sisters; and their names were\n'
    # u'Elsie'
    # u',\n'
    # u'Lacie'
    # u' and\n'
    # u'Tillie'
    # u';\nand they lived at the bottom of a well.'
    # u'\n\n'
    # u'...'
    # u'\n'

輸出的字符串中可能包含了很多空格或空行,使用 .stripped_strings 可以去除多余空白內容:

for string in soup.stripped_strings:
    print(repr(string))
    # u"The Dormouse's story"
    # u"The Dormouse's story"
    # u'Once upon a time there were three little sisters; and their names were'
    # u'Elsie'
    # u','
    # u'Lacie'
    # u'and'
    # u'Tillie'
    # u';\nand they lived at the bottom of a well.'
    # u'...'

搜索文檔樹:

1. find和find_all方法:

搜索文檔樹,一般用得比較多的就是兩個方法比然,一個是find丈氓,一個是find_allfind方法是找到第一個滿足條件的標簽后就立即返回强法,只返回一個元素万俗。find_all方法是把所有滿足條件的標簽都選到,然后返回回去饮怯。使用這兩個方法闰歪,最常用的用法是出入name以及attr參數找出符合要求的標簽。

soup.find_all("a",attrs={"id":"link2"})

或者是直接傳入屬性的的名字作為關鍵字參數:

soup.find_all("a",id='link2')

2. select方法:

使用以上方法可以方便的找出元素硕淑。但有時候使用css選擇器的方式可以更加的方便课竣。使用css選擇器的語法嘉赎,應該使用select方法。以下列出幾種常用的css選擇器方法:

(1)通過標簽名查找:

print(soup.select('a'))

(2)通過類名查找:

通過類名于樟,則應該在類的前面加一個.公条。比如要查找class=sister的標簽。示例代碼如下:

print(soup.select('.sister'))

(3)通過id查找:

通過id查找迂曲,應該在id的名字前面加一個#號靶橱。示例代碼如下:

print(soup.select("#link1"))

(4)組合查找:

組合查找即和寫 class 文件時,標簽名與類名路捧、id名進行的組合原理是一樣的关霸,例如查找 p 標簽中,id 等于 link1的內容杰扫,二者需要用空格分開:

print(soup.select("p #link1"))

直接子標簽查找队寇,則使用 > 分隔:

print(soup.select("head > title"))

(5)通過屬性查找:

查找時還可以加入屬性元素,屬性需要用中括號括起來章姓,注意屬性和標簽屬于同一節(jié)點佳遣,所以中間不能加空格,否則會無法匹配到凡伊。示例代碼如下:

print(soup.select('a[))

(6)獲取內容

以上的 select 方法返回的結果都是列表形式零渐,可以遍歷形式輸出,然后用 get_text() 方法來獲取它的內容系忙。

soup = BeautifulSoup(html, 'lxml')
print type(soup.select('title'))
print soup.select('title')[0].get_text()

for title in soup.select('title'):
    print title.get_text()
?著作權歸作者所有,轉載或內容合作請聯系作者
  • 序言:七十年代末诵盼,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子银还,更是在濱河造成了極大的恐慌风宁,老刑警劉巖,帶你破解...
    沈念sama閱讀 216,591評論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件见剩,死亡現場離奇詭異杀糯,居然都是意外死亡,警方通過查閱死者的電腦和手機苍苞,發(fā)現死者居然都...
    沈念sama閱讀 92,448評論 3 392
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來狼纬,“玉大人羹呵,你說我怎么就攤上這事×屏穑” “怎么了冈欢?”我有些...
    開封第一講書人閱讀 162,823評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長盈简。 經常有香客問我凑耻,道長太示,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,204評論 1 292
  • 正文 為了忘掉前任香浩,我火速辦了婚禮类缤,結果婚禮上,老公的妹妹穿的比我還像新娘邻吭。我一直安慰自己餐弱,他們只是感情好,可當我...
    茶點故事閱讀 67,228評論 6 388
  • 文/花漫 我一把揭開白布囱晴。 她就那樣靜靜地躺著膏蚓,像睡著了一般。 火紅的嫁衣襯著肌膚如雪畸写。 梳的紋絲不亂的頭發(fā)上驮瞧,一...
    開封第一講書人閱讀 51,190評論 1 299
  • 那天,我揣著相機與錄音枯芬,去河邊找鬼论笔。 笑死,一個胖子當著我的面吹牛破停,可吹牛的內容都是我干的翅楼。 我是一名探鬼主播,決...
    沈念sama閱讀 40,078評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼真慢,長吁一口氣:“原來是場噩夢啊……” “哼毅臊!你這毒婦竟也來了?” 一聲冷哼從身側響起黑界,我...
    開封第一講書人閱讀 38,923評論 0 274
  • 序言:老撾萬榮一對情侶失蹤管嬉,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后朗鸠,有當地人在樹林里發(fā)現了一具尸體蚯撩,經...
    沈念sama閱讀 45,334評論 1 310
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 37,550評論 2 333
  • 正文 我和宋清朗相戀三年烛占,在試婚紗的時候發(fā)現自己被綠了胎挎。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,727評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡忆家,死狀恐怖犹菇,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情芽卿,我是刑警寧澤揭芍,帶...
    沈念sama閱讀 35,428評論 5 343
  • 正文 年R本政府宣布,位于F島的核電站卸例,受9級特大地震影響称杨,放射性物質發(fā)生泄漏肌毅。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,022評論 3 326
  • 文/蒙蒙 一姑原、第九天 我趴在偏房一處隱蔽的房頂上張望悬而。 院中可真熱鬧,春花似錦页衙、人聲如沸摊滔。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,672評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽艰躺。三九已至,卻和暖如春眨八,著一層夾襖步出監(jiān)牢的瞬間腺兴,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,826評論 1 269
  • 我被黑心中介騙來泰國打工廉侧, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留页响,地道東北人。 一個月前我還...
    沈念sama閱讀 47,734評論 2 368
  • 正文 我出身青樓段誊,卻偏偏與公主長得像闰蚕,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子连舍,可洞房花燭夜當晚...
    茶點故事閱讀 44,619評論 2 354

推薦閱讀更多精彩內容