【爬蟲】坐穩(wěn)钉答,發(fā)車了 - Python抓取妹子圖

環(huán)境:windows7 + python2.7
相關(guān)庫:lxml + json + urllib
爬取的網(wǎng)站地址:http://www.mzitu.com/ (础芍。。数尿。捂臉)
本人是社會主義好青年仑性,本次抓取只將所有圖片的原始地址抓到后保存為json文件,并不下載圖片右蹦!
好了開始吧

首先需要一個可以抓取頁面的函數(shù)

#獲取網(wǎng)頁
def getHtml(url):
    res = urllib.urlopen(url)
    html = res.read().encode('utf8')
    return html

打開網(wǎng)頁即可在首頁下方看到所有頁面的數(shù)诊杆,最大值就是我們所需要的


Paste_Image.png

審查元素發(fā)現(xiàn)這個值放在一個a標(biāo)簽下,要拿到這個頁面數(shù)值何陆,我們使用xpath解析網(wǎng)頁

#獲取一共有多少頁專題
def getAllPages(url):
    html = etree.HTML(getHtml(url))
    pages = html.xpath('/html/body/div[2]/div[1]/div[2]/nav/div/a[4]/text()')
    pages = int(pages[0])
    return pages

使用審查元素查看網(wǎng)頁代碼可以發(fā)現(xiàn),每一個頁面有多個專題晨汹,這些專題存放在id值為pins的ul列表里,每一個li標(biāo)簽存放一個專題


Paste_Image.png

想要得到每個專題中所有的圖片我們需要獲取每個專題的名稱和鏈接甲献,使用代碼

#根據(jù)傳進(jìn)來的頁面地址獲取當(dāng)頁所有專題的鏈接和名稱
def everyPage(page):
    url = 'http://www.mzitu.com/page/%d'%page
    html = etree.HTML(getHtml(url))
    pins_list = html.xpath('//*[@id="pins"]/li') #獲取每個頁面所有專題xpath列表
    for pins in pins_list:
        mkdirs = pins.xpath('a/@href') #專題鏈接
        mkdirs_name = pins.xpath('a/img/@alt') #專題名稱

得到專題的鏈接之后我們進(jìn)入專題

Paste_Image.png

可以發(fā)現(xiàn)每個妹子所擁有的圖片數(shù)量不一致宰缤,且每一個頁面只有一張圖。多瀏覽幾張圖片,可以看出專題內(nèi)的圖片很有規(guī)律慨灭,第二張的頁面地址是這樣的http://www.mzitu.com/86102/2朦乏,第三張的頁面地址http://www.mzitu.com/86102/3,所以我們只要得出這個專題一共有多少頁面就能知道有多少張圖和每張圖所存放的地址了氧骤。

#獲取每個專題所有圖片的地址
def everySemImgUrls(sem_name,url):
    html = etree.HTML(getHtml(url))
    images = html.xpath('//div[@class="pagenavi"]/a[last()-1]/span/text()') #每個專題圖片數(shù)量
    mmpags = [url+'/'+str(x) for x in range(1,int(images[0])+1)] #生成圖片頁面列表

拿到了每張圖所在的頁面地址呻疹,那么就剩下獲取圖片的原始地址了


Paste_Image.png

同樣使用xpath

#獲取單個頁面下的圖片地址
def getImageUrl(url):
    html = etree.HTML(getHtml(url))
    src = html.xpath('//div[@class="main-image"]/p/a/img/@src')
    src = src[0]
    return src #返回每張圖片的地址

最后就是保存到j(luò)son文件
所有代碼如下

#-*- coding:utf-8 -*-
import urllib
import threadpool
from lxml import etree
import json

#獲取網(wǎng)頁
def getHtml(url):
    res = urllib.urlopen(url)
    html = res.read().encode('utf8')
    return html

#獲取一共有多少頁專題
def getAllPages(url):
    html = etree.HTML(getHtml(url))
    pages = html.xpath('/html/body/div[2]/div[1]/div[2]/nav/div/a[4]/text()')
    pages = int(pages[0])
    return pages

#獲取單個頁面下的圖片地址
def getImageUrl(url):
    html = etree.HTML(getHtml(url))
    src = html.xpath('//div[@class="main-image"]/p/a/img/@src')
    try:
        src = src[0]
    except IndexError,e:
        print e
        print src
    return src #返回每張圖片的地址

#獲取每個專題所有圖片的地址
def everySemImgUrls(sem_name,url):
    html = etree.HTML(getHtml(url))
    images = html.xpath('//div[@class="pagenavi"]/a[last()-1]/span/text()') #每個專題圖片數(shù)量
    mmpags = [url+'/'+str(x) for x in range(1,int(images[0])+1)] #生成圖片頁面列表
    sem_image = []
    for jpgUrl in mmpags:
        imgUrl = getImageUrl(jpgUrl)
        sem_image.append(imgUrl)
    pageMMurls = {}
    pageMMurls[sem_name] = {}
    pageMMurls[sem_name]['sem_url'] = url
    pageMMurls[sem_name]['sem_images'] = sem_image
    readed = {}
    try:
        readed = json.load(open('mzitu.json','r'))
    except Exception,e:
        pass
    with open('mzitu.json','w') as f:
        readed[sem_name] = pageMMurls[sem_name]
        json.dump(readed,f,sort_keys=True,indent=4,separators=(',',': '),encoding="utf8",ensure_ascii=False)
    print sem_name+'  -'+images[0]+'-張'

#獲取一個頁面中所有專題名及連接
def everyPage(page):
    url = 'http://www.mzitu.com/page/%d'%page
    html = etree.HTML(getHtml(url))
    pins_list = html.xpath('//*[@id="pins"]/li') #獲取每個頁面所有專題xpath列表
    print '本頁共有專題--%d--個'%pins_list.__len__()
    for pins in pins_list:
        mkdirs = pins.xpath('a/@href') #專題鏈接
        mkdirs_name = pins.xpath('a/img/@alt') #專題名稱
        everySemImgUrls(mkdirs_name[0],mkdirs[0])

def main():
    pages = getAllPages('http://www.mzitu.com/') #從主頁獲取所有頁面數(shù)量
    print '共發(fā)現(xiàn)--%d--頁專題'%pages
    for page in range(1,pages+1):
        print '準(zhǔn)備下載第--%d--頁'%page
        everyPageDict = everyPage(page)

if __name__ == '__main__':
    main()
總結(jié):

1、本次爬蟲為單線程筹陵,速度慢且偶爾有中途停車現(xiàn)象刽锤。下次來玩兒再來優(yōu)化

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市朦佩,隨后出現(xiàn)的幾起案子并思,更是在濱河造成了極大的恐慌,老刑警劉巖语稠,帶你破解...
    沈念sama閱讀 221,430評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件宋彼,死亡現(xiàn)場離奇詭異,居然都是意外死亡仙畦,警方通過查閱死者的電腦和手機(jī)输涕,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,406評論 3 398
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來慨畸,“玉大人莱坎,你說我怎么就攤上這事〈缡浚” “怎么了檐什?”我有些...
    開封第一講書人閱讀 167,834評論 0 360
  • 文/不壞的土叔 我叫張陵,是天一觀的道長碉京。 經(jīng)常有香客問我厢汹,道長,這世上最難降的妖魔是什么谐宙? 我笑而不...
    開封第一講書人閱讀 59,543評論 1 296
  • 正文 為了忘掉前任,我火速辦了婚禮界弧,結(jié)果婚禮上凡蜻,老公的妹妹穿的比我還像新娘。我一直安慰自己垢箕,他們只是感情好划栓,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,547評論 6 397
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著条获,像睡著了一般忠荞。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 52,196評論 1 308
  • 那天委煤,我揣著相機(jī)與錄音堂油,去河邊找鬼。 笑死碧绞,一個胖子當(dāng)著我的面吹牛府框,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播讥邻,決...
    沈念sama閱讀 40,776評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼迫靖,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了兴使?” 一聲冷哼從身側(cè)響起系宜,我...
    開封第一講書人閱讀 39,671評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎发魄,沒想到半個月后盹牧,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 46,221評論 1 320
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡欠母,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,303評論 3 340
  • 正文 我和宋清朗相戀三年欢策,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片赏淌。...
    茶點(diǎn)故事閱讀 40,444評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡踩寇,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出六水,到底是詐尸還是另有隱情俺孙,我是刑警寧澤,帶...
    沈念sama閱讀 36,134評論 5 350
  • 正文 年R本政府宣布掷贾,位于F島的核電站睛榄,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏想帅。R本人自食惡果不足惜场靴,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,810評論 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望港准。 院中可真熱鬧旨剥,春花似錦、人聲如沸浅缸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,285評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽衩椒。三九已至蚌父,卻和暖如春哮兰,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背苟弛。 一陣腳步聲響...
    開封第一講書人閱讀 33,399評論 1 272
  • 我被黑心中介騙來泰國打工喝滞, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人嗡午。 一個月前我還...
    沈念sama閱讀 48,837評論 3 376
  • 正文 我出身青樓囤躁,卻偏偏與公主長得像,于是被迫代替她去往敵國和親荔睹。 傳聞我的和親對象是個殘疾皇子狸演,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,455評論 2 359

推薦閱讀更多精彩內(nèi)容