Python爬蟲(14)利用Scrapy下載豆瓣電影Top250圖片

??在用Python的urllib和BeautifulSoup寫過了很多爬蟲之后泣栈,本人決定嘗試著名的Python爬蟲框架——Scrapy.
??本次分享將詳細(xì)講述如何利用Scrapy來下載豆瓣電影Top250, 主要解決的問題有:

  • 如何利用ImagesPipeline來下載圖片
  • 如何對下載后的圖片重命名畏纲,這是因為Scrapy默認(rèn)用Hash值來保存文件信殊,這并不是我們想要的

??首先我們要爬取的豆瓣電影Top250網(wǎng)頁截圖如下:

豆瓣電影Top250網(wǎng)頁

??網(wǎng)頁的結(jié)構(gòu)并不復(fù)雜靖秩,所以讨衣,我們決定把所有的250部電影的圖片都下載下來授药。接下來徐钠,就開始我們的Scrapy之旅啦~~
??首先我們新建一個Scrapy項目戳粒,叫做doubanMovie.

scrapy startproject doubanMovie

該項目的文件樹形結(jié)構(gòu)如下:

文件樹形結(jié)構(gòu)

??修改items.py如下:

# -*- coding: utf-8 -*-
import scrapy

class DoubanmovieItem(scrapy.Item):
    # two items: url and name of image
    url = scrapy.Field()
    img_name = scrapy.Field()

這是我們用來存放圖片的url和name的部分毙籽。

??接著洞斯,在spiders文件夾下,新建爬蟲(Spider)文件:doubanMovieSpider.py, 文件代碼如下:

import scrapy
from scrapy.spiders import Spider  
from scrapy.selector import Selector  
from doubanMovie.items import DoubanmovieItem

class movieSpider(Spider):
    # name of Spider  
    name = "movie"
    #start urls
    start_urls = ["https://movie.douban.com/top250"] 
    for i in range(1,10):
        start_urls.append("https://movie.douban.com/top250?start=%d&filter="%(25*i))

    #parse function
    def parse(self, response):
        
        item = DoubanmovieItem()
        sel = Selector(response)
        images = sel.xpath('//*[@id="content"]/div/div[1]/ol/li')

        item['url'] = [] 
        item['img_name'] = []
        # append the url and name of the image in item
        for image in images:
            # extract url and name of the image   
            site = image.xpath('div/div[1]/a/img/@src').extract_first()
            img_name = image.xpath('div/div[1]/a/img/@alt').extract_first()
            
            item['url'].append(site)
            item['img_name'].append(img_name)
   
        yield item

該部分代碼主要利用xpath來提出網(wǎng)頁中的電影圖片的url和name坑赡,并添加到item中烙如。
??為了能夠?qū)ο螺d后的圖片進(jìn)行重命名,我們需要修改pipeline.py文件毅否,代碼如下:

# -*- coding: utf-8 -*-

from scrapy.pipelines.images import ImagesPipeline
from scrapy.http import Request 

class DoubanmoviePipeline(object):
    def process_item(self, item, spider):
        return item

class MyImagesPipeline(ImagesPipeline):
    # yield meta for file_path() function
    def get_media_requests(self, item, info): 
        for url in item['url']: 
            yield Request(url, meta={'item': item, 'index':item['url'].index(url)})

    # rename the image
    def file_path(self, request, response=None, info=None):
        item = request.meta['item']
        index = request.meta['index']

        image_name = item['img_name'][index]
        return 'full/%s.jpg' % (image_name)

在這兒我們添加了MyImagesPipeline類亚铁,主要目的是用來對下載后的圖片進(jìn)行重命名。
??最后一步螟加,也是關(guān)鍵的一步徘溢,就是修改settings.py文件吞琐,將其中的ROBOTSTXT_OBEY設(shè)置為False, 這是為了防止爬蟲被禁,并且添加以下代碼:

USER_AGENT = "Mozilla/5.0 (X11; Linux x86_64; rv:10.0) Gecko/20100101 Firefox/10.0"

ITEM_PIPELINES {'doubanMovie.pipelines.DoubanmoviePipeline': 2,  
                'doubanMovie.pipelines.MyImagesPipeline':1 }

IMAGES_URLS_FIELD = 'url'
IMAGES_STORE = r'.'

在上面的代碼中然爆,我們設(shè)置了USER_AGENT, 這是為了在Linux系統(tǒng)中模擬瀏覽器的設(shè)置站粟,讀者可以根據(jù)自己的系統(tǒng)和瀏覽器來設(shè)置不同的USER_AGENT. 同時, 我們又加了ITEM_PIPELINES管道和圖片的保存路徑曾雕。

??一切就緒奴烙,我們就可以運(yùn)行爬蟲啦。切換到spiders文件夾下翻默,輸入scrapy list可以查看爬蟲的名字缸沃,輸入scrapy crawl movie即可運(yùn)行爬蟲。

查看和運(yùn)行爬蟲

??movie爬蟲的運(yùn)行結(jié)果如下:

爬蟲運(yùn)行結(jié)果

該爬蟲下載了250個文件修械,用時約13秒趾牧,效率驚人啊肯污!
??下載后的圖片保存在當(dāng)前文件夾(spiders)下的full文件夾下翘单,我們來看一下里面的內(nèi)容:

下載圖片

??Surprise!Wonderful! 里面有沒有你喜歡的電影呢?

??本項目的Github地址為 https://github.com/percent4/doubanMovieSpider蹦渣, 歡迎大家訪問哦~~

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末哄芜,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子柬唯,更是在濱河造成了極大的恐慌认臊,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,122評論 6 505
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件锄奢,死亡現(xiàn)場離奇詭異失晴,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)拘央,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,070評論 3 395
  • 文/潘曉璐 我一進(jìn)店門涂屁,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人灰伟,你說我怎么就攤上這事拆又。” “怎么了栏账?”我有些...
    開封第一講書人閱讀 164,491評論 0 354
  • 文/不壞的土叔 我叫張陵帖族,是天一觀的道長。 經(jīng)常有香客問我挡爵,道長竖般,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,636評論 1 293
  • 正文 為了忘掉前任了讨,我火速辦了婚禮捻激,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘前计。我一直安慰自己胞谭,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 67,676評論 6 392
  • 文/花漫 我一把揭開白布男杈。 她就那樣靜靜地躺著丈屹,像睡著了一般。 火紅的嫁衣襯著肌膚如雪伶棒。 梳的紋絲不亂的頭發(fā)上旺垒,一...
    開封第一講書人閱讀 51,541評論 1 305
  • 那天,我揣著相機(jī)與錄音肤无,去河邊找鬼先蒋。 笑死,一個胖子當(dāng)著我的面吹牛宛渐,可吹牛的內(nèi)容都是我干的竞漾。 我是一名探鬼主播,決...
    沈念sama閱讀 40,292評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼窥翩,長吁一口氣:“原來是場噩夢啊……” “哼业岁!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起寇蚊,我...
    開封第一講書人閱讀 39,211評論 0 276
  • 序言:老撾萬榮一對情侶失蹤笔时,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后仗岸,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體允耿,經(jīng)...
    沈念sama閱讀 45,655評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,846評論 3 336
  • 正文 我和宋清朗相戀三年爹梁,在試婚紗的時候發(fā)現(xiàn)自己被綠了右犹。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,965評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡姚垃,死狀恐怖念链,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情积糯,我是刑警寧澤掂墓,帶...
    沈念sama閱讀 35,684評論 5 347
  • 正文 年R本政府宣布,位于F島的核電站看成,受9級特大地震影響君编,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜川慌,卻給世界環(huán)境...
    茶點故事閱讀 41,295評論 3 329
  • 文/蒙蒙 一吃嘿、第九天 我趴在偏房一處隱蔽的房頂上張望祠乃。 院中可真熱鬧,春花似錦兑燥、人聲如沸亮瓷。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,894評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽嘱支。三九已至,卻和暖如春挣饥,著一層夾襖步出監(jiān)牢的瞬間除师,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,012評論 1 269
  • 我被黑心中介騙來泰國打工扔枫, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留汛聚,地道東北人。 一個月前我還...
    沈念sama閱讀 48,126評論 3 370
  • 正文 我出身青樓短荐,卻偏偏與公主長得像贞岭,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子搓侄,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,914評論 2 355

推薦閱讀更多精彩內(nèi)容