爬蟲入門修行——爬取美女圖片罩息,分目錄多級存儲

如果本文幫助到你嗤详,本人不勝榮幸,如果浪費(fèi)了你的時(shí)間瓷炮,本人深感抱歉葱色。
希望用最簡單的大白話來幫助那些像我一樣的人。如果有什么錯(cuò)誤娘香,請一定指出苍狰,以免誤導(dǎo)大家办龄、也誤導(dǎo)我。
本文來自:http://www.reibang.com/u/320f9e8f7fc9
感謝您的關(guān)注淋昭。

最近有個(gè)需求:下載某個(gè)網(wǎng)站的圖片俐填。
所以簡單研究了一下爬蟲。
在此整理一下結(jié)果翔忽,一為自己記錄英融,二給后人一些方向。
整體研究周期 2-3 天歇式,看完之后驶悟,在加上看的時(shí)候或多或少也會自己搜到一些其他知識。
順著看下來材失,應(yīng)該會對爬蟲技術(shù)有一個(gè)初步的認(rèn)識痕鳍。

利用 Python 的 Scrapy 框架。


1. 首先龙巨,安裝爬蟲需要的環(huán)境

Python爬蟲系列之----Scrapy下載安裝
http://blog.csdn.net/u011781521/article/details/70177291

這里面非常詳細(xì)的介紹了每一步的下載额获,按照步驟下載安裝,完全沒有問題恭应。

2. 一個(gè)非常簡單的下載圖片的例子

結(jié)合 Scarpy 框架的中文官網(wǎng)
來看這個(gè)例子:下載圖片
http://www.reibang.com/p/b5ae15cb131d

這個(gè)項(xiàng)目跑通之后,也就大概能了解 Scarpy 框架耘眨。

但是這個(gè)項(xiàng)目還不夠完善昼榛,因?yàn)樗廊〉膱D片全部都在一個(gè)文件夾下,并且圖片的名字也被修改了剔难。

3. 多頁爬取胆屿,并且分目錄保存到本地

首先看這篇文章,講解了如何多級爬取偶宫。
https://my.oschina.net/lpe234/blog/342741

不太明白的話非迹,可以多看幾遍。如果纯趋,還是實(shí)在不明白憎兽,也沒關(guān)系,直接看接下來的例子吵冒,可能更直觀纯命。

例子一:

scrapy中使用ImagePipeline自定義圖片文件名
http://mazih.com/post/cibuwb7bu0000rfa2m169vzv9/

這個(gè)例子介紹了在往本地下載的時(shí)候,如何多級存儲痹栖。

例子二:

爬取妹子圖
http://codingpy.com/article/scrapy-01-meizitu/
跟上面差不多亿汞,但也能加深理解,加強(qiáng)印象揪阿。

4. 反爬蟲

Scrapy爬取美女圖片第四集 突破反爬蟲(上)
http://www.reibang.com/p/9159111bcd87
Python爬蟲系列之----Scrapy(七)使用IP代理池
http://blog.csdn.net/u011781521/article/details/70194744?locationNum=4&fps=1
scrapy下載圖片遇到反盜鏈的設(shè)置疗我,解決方法兩種
https://zhuanlan.zhihu.com/p/26251969

最后再分享一個(gè)系列咆畏,非常棒够傍。解決了不少問題胆敞。
http://blog.csdn.net/u011781521/article/category/6560282


以上就是學(xué)習(xí)的時(shí)候栗菜,看到的一些資料残炮。
然后貼出一篇我自己寫的丘喻,爬取的時(shí)候分了三級目錄解恰,并且鲫剿,最后一級還有 下一頁掐暮。

import scrapy
from znns.items import ZnnsItem


class NvshenSpider(scrapy.Spider):
    name = 'znns'
    allowed_domains = ['']
    start_urls = ['https://www.nvshens.com/rank/sum/']
    headers = {
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
        'Accept-Language': 'zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3',
    }

    # 排行榜循環(huán)
    def parse(self, response):
        exp = u'//div[@class="pagesYY"]//a[text()="下一頁"]/@href'  # 下一頁的地址
        _next = response.xpath(exp).extract_first()
        yield scrapy.Request(response.urljoin(_next), callback=self.parse, dont_filter=True)

        for p in response.xpath('//li[@class="rankli"]//div[@class="rankli_imgdiv"]//a/@href').extract():  # 某一個(gè)妹子簡介詳情頁
            item_page = "https://www.nvshens.com/" + p + "album/"  # 拼接 全部相冊頁面
            yield scrapy.Request(item_page, callback=self.parse_item, dont_filter=True)

    # 單個(gè)介紹詳情頁
    def parse_item(self, response):
        item = ZnnsItem()
        # 某個(gè)人的名字枕面,也就是一級文件夾
        item['name'] = response.xpath('//div[@id="post"]//div[@id="map"]//div[@class="browse"]/a[2]/@title').extract()[
            0].strip()

        exp = '//li[@class="igalleryli"]//div[@class="igalleryli_div"]//a/@href'
        for p in response.xpath(exp).extract():  # 遍歷妹子全部相冊
            item_page = "https://www.nvshens.com/" + p  # 拼接圖片的詳情頁
            yield scrapy.Request(item_page, meta={'item': item}, callback=self.parse_item_details, dont_filter=True)

    # 圖片主頁愿卒,開始抓取
    def parse_item_details(self, response):
        item = response.meta['item']
        item['image_urls'] = response.xpath('//ul[@id="hgallery"]//img/@src').extract()  # 圖片鏈接
        item['albumname'] = response.xpath('//h1[@id="htilte"]/text()').extract()[0].strip()  # 二級文件夾
        yield item

        new_url = response.xpath('//div[@id="pages"]//a[text()="下一頁"]/@href').extract_first()  # 翻頁
        new_url = "https://www.nvshens.com/" + new_url
        if new_url:
            yield scrapy.Request(new_url, meta={'item': item}, callback=self.parse_item_details, dont_filter=True)

爬取結(jié)果如圖:


最后放上我寫的項(xiàng)目地址:
https://github.com/Wing-Li/znns

歡迎 Star,歡迎關(guān)注潮秘。

<br />
收集:
收集各種爬蟲 (默認(rèn)爬蟲語言為 python)
用 PHP 爬蟲做旅游數(shù)據(jù)分析

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末琼开,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子枕荞,更是在濱河造成了極大的恐慌柜候,老刑警劉巖,帶你破解...
    沈念sama閱讀 211,639評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件躏精,死亡現(xiàn)場離奇詭異渣刷,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)矗烛,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,277評論 3 385
  • 文/潘曉璐 我一進(jìn)店門辅柴,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人瞭吃,你說我怎么就攤上這事碌嘀。” “怎么了歪架?”我有些...
    開封第一講書人閱讀 157,221評論 0 348
  • 文/不壞的土叔 我叫張陵股冗,是天一觀的道長。 經(jīng)常有香客問我和蚪,道長止状,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,474評論 1 283
  • 正文 為了忘掉前任攒霹,我火速辦了婚禮导俘,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘剔蹋。我一直安慰自己旅薄,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,570評論 6 386
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著少梁,像睡著了一般洛口。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上凯沪,一...
    開封第一講書人閱讀 49,816評論 1 290
  • 那天第焰,我揣著相機(jī)與錄音,去河邊找鬼妨马。 笑死挺举,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的烘跺。 我是一名探鬼主播湘纵,決...
    沈念sama閱讀 38,957評論 3 408
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼滤淳!你這毒婦竟也來了梧喷?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,718評論 0 266
  • 序言:老撾萬榮一對情侶失蹤脖咐,失蹤者是張志新(化名)和其女友劉穎铺敌,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體屁擅,經(jīng)...
    沈念sama閱讀 44,176評論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡偿凭,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,511評論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了派歌。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片弯囊。...
    茶點(diǎn)故事閱讀 38,646評論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖硝皂,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情作谭,我是刑警寧澤稽物,帶...
    沈念sama閱讀 34,322評論 4 330
  • 正文 年R本政府宣布,位于F島的核電站折欠,受9級特大地震影響贝或,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜锐秦,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,934評論 3 313
  • 文/蒙蒙 一咪奖、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧酱床,春花似錦羊赵、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,755評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽闲昭。三九已至,卻和暖如春靡挥,著一層夾襖步出監(jiān)牢的瞬間序矩,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,987評論 1 266
  • 我被黑心中介騙來泰國打工跋破, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留簸淀,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 46,358評論 2 360
  • 正文 我出身青樓毒返,卻偏偏與公主長得像租幕,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個(gè)殘疾皇子饿悬,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,514評論 2 348

推薦閱讀更多精彩內(nèi)容