網(wǎng)上有各種爬取豆瓣電影top250的教程卵贱,雖然豆瓣音樂top250和豆瓣電影top250的爬取十分類似抛虫,但是我大致對比了一下西乖,我這種方法應(yīng)該是最簡單的狐榔,僅需要23行代碼。
豆瓣對于爬蟲十分友好获雕,而且豆瓣上面又有各種電影圖書音樂等資源薄腻,是我們學習爬蟲一個很不錯的鍛煉目標〗彀福基本上每個學習爬蟲的人都會拿豆瓣來練練手庵楷。
好吧,如果你有更簡單的方法楣颠,歡迎給我評論留言交流交流嫁乘,共同進步。
抓取目標:
豆瓣音樂top250的歌名球碉、作者(專輯)、評分和歌曲鏈接
使用工具:
requests + lxml + xpath仓蛆。
我認為這種工具組合是最適合初學者的睁冬,requests比python自帶的urllib庫好用,功能更強大。關(guān)于requests的使用方法豆拨,建議看它的官方文檔:
http://docs.python-requests.org/zh_CN/latest/user/quickstart.html
使用lxml來解析網(wǎng)頁直奋,速度是最快的,至少比BeatifulSoup快施禾。關(guān)于lxml的使用方法脚线,建議看這個:
而xpath更是傻白甜的使用方式:直接在瀏覽器中復制即可,如果想要掌握xpath更具體的語法弥搞,建議看w3school的xpath教程:
http://www.w3school.com.cn/xpath/
首先目標url是: https://music.douban.com/top250?start=0
點擊下一頁邮绿,我們多觀察幾個頁面的url:
我們會發(fā)現(xiàn)url的start=是以25的倍數(shù)增長的,起始為start=0攀例,然后是start=25船逮,每頁25首音樂,一共十頁粤铭。
所以挖胃,我們可以使用一個for循環(huán)來得出這十個頁面的url:
for i in range(10):
# 一共有10個頁面,每個頁面25首音樂
url = "https://music.douban.com/top250?start={}".format(i * 25)
關(guān)于format()函數(shù)的使用方法梆惯,可以看菜鳥教程上的講解:
http://www.runoob.com/python/att-string-format.html
關(guān)于range()函數(shù)的使用方法酱鸭,可以看菜鳥教程上的講解:
http://www.runoob.com/python/python-func-range.html
然后我們使用requests.get()來進行網(wǎng)頁請求:
import requests
headers = {"User_Agent": "Mozilla/5.0(compatible; MSIE 5.5; Windows 8)"}
data = requests.get(url, headers=headers).text
使用lxml來解析網(wǎng)頁:
from lxml import etree
s = etree.HTML(data)
接下來我們開始提取數(shù)據(jù),打開目標頁面垛吗,將每首音樂的完整信息的xpath信息復制下來:
重復這樣的操作凹髓,多復制幾首音樂的xpath信息,觀察它的規(guī)律:
//*[@id="content"]/div/div[1]/div/table[1]
//*[@id="content"]/div/div[1]/div/table[2]
//*[@id="content"]/div/div[1]/div/table[3]
這樣子規(guī)律就很明顯了职烧,每首音樂就是table后的序號不同扁誓。只要我們將序號去掉,就可以提取所有音樂的全部信息了:
# 歌曲整體的xpath
musics = s.xpath('//*[@id="content"]/div/div[1]/div/table')
我們再使用同樣的方法來獲取歌名的xpath信息:
多復制幾個歌名信息的xpath來對比一下:
# 歌名的xpath
# //*[@id="content"]/div/div[1]/div/table[1]/tbody/tr/td[2]/div/a
# //*[@id="content"]/div/div[1]/div/table[2]/tbody/tr/td[2]/div/a
這是注意一下蚀之, 上面的xpath路徑中蝗敢,/tbody是多余的,我們要將其刪掉足删,不然會出錯寿谴,所以,有時候直接在瀏覽器復制xpath信息也不一定靠譜失受,這里要注意一下讶泰。
這樣我們就可以提取出每首歌的歌名:
for music in musics:
music_name = music.xpath('./tr/td[2]/div/a/text()')[0].strip()
如果不加[0],我們得到的結(jié)果將是一個list類型拂到,每個結(jié)果都被中括號[]裹起來痪署,比較礙眼,所以使用[0]取出list的第一個值就可以了兄旬。strip()函數(shù)可以去除多余的空格狼犯。
還有,音樂的鏈接和名字的xpath路徑是相同的,只是一個取href值悯森,一個取text值宋舷。
所以每首歌的鏈接如下:
for music in musics:
music_name = music.xpath('./tr/td[2]/div/a/@href')[0]
我們再使用同樣的方法復制作者(專輯)的xpath信息:
多復制幾個作者的xpath信息來對比一下:
# //*[@id="content"]/div/div[1]/div/table[1]/tbody/tr/td[2]/div/p[1]
# //*[@id="content"]/div/div[1]/div/table[2]/tbody/tr/td[2]/div/p[1]
同樣要將/tbody從xpath路徑中刪掉,這樣我們可以提取到每首歌的作者信息:
for music in musics:
music_author = music.xpath('./tr/td[2]/div/p[1]/text()')[0].strip()
我們還使用同樣的方法復制評分的xpath信息:
多復制幾個評分的xpath信息來對比一下:
# //*[@id="content"]/div/div[1]/div/table[1]/tbody/tr/td[2]/div/div/span[2]
# //*[@id="content"]/div/div[1]/div/table[2]/tbody/tr/td[2]/div/div/span[2]
同理瓢姻,我們就可以提取出每首歌的評分了:
for music in musics:
music_score = music.xpath('./tr/td[2]/div/div/span[2]/text()')[0]
到現(xiàn)在祝蝠,我們已經(jīng)獲取了我們想要的所有信息。現(xiàn)在來整合一下代碼幻碱,存儲為TXT文件:
import requests
from lxml import etree
import time
with open("豆瓣音樂top250.txt", "w", encoding="utf-8") as f:
for i in range(10):
# 一共有10個頁面绎狭,每個頁面25首音樂
url = "https://music.douban.com/top250?start={}".format(i * 25)
headers = {"User_Agent": "Mozilla/5.0(compatible; MSIE 5.5; Windows 8)"}
data = requests.get(url, headers=headers).text
s = etree.HTML(data)
# 歌曲整體的xpath
musics = s.xpath('//*[@id="content"]/div/div[1]/div/table')
time.sleep(2)
for music in musics:
music_name = music.xpath('./tr/td[2]/div/a/text()')[0].strip() # 歌名
music_author = music.xpath('./tr/td[2]/div/p[1]/text()')[0].strip() # 作者
music_score = music.xpath('./tr/td[2]/div/div/span[2]/text()')[0] # 評分
music_href = music.xpath('./tr/td[2]/div/a/@href')[0] # 鏈接
f.write("{} {} {} {}\n".format(music_name, music_author, music_score, music_href))
如上,一共23行代碼收班。
爬取結(jié)果如下:
本來我想存為CSV文件的坟岔,結(jié)果發(fā)現(xiàn)有的歌曲有多個歌手,而且?guī)讉€歌手之間是用逗號(摔桦,)分開的社付,這就和CSV中的逗號產(chǎn)生了混淆,導致結(jié)果比較錯亂邻耕。
好吧鸥咖,我暫時不知道存為CSV格式時,怎樣消除其本身攜帶的逗號產(chǎn)生的影響兄世。
當然啼辣,同樣的爬取思路,我們還可以爬取豆瓣電影top250御滩、豆瓣圖書top250鸥拧。只需要將url和xpath路徑修改一下就可以了。
每天學習一點點削解,每天進步一點點富弦。