scrapy爬蟲實現(xiàn)爬取圖片(通過圖片管道)

非結(jié)構(gòu)化數(shù)據(jù)抓取流程

1.抓取網(wǎng)絡(luò)數(shù)據(jù)包

2堵幽、F12抓包,抓取到j(luò)son地址 和 查詢參數(shù)(QueryString)
url = 'https://image.so.com/zjl?ch=beauty&t1=595&src=banner_beauty&sn={}&listtype=new&temp=1'.format(sn)
ch: beauty
t1: 595
src: banner_beauty
sn: 90
listtype: new
temp: 1

項目實現(xiàn)

1.創(chuàng)建爬蟲項目和爬蟲文件

scrapy startproject So
cd So
scrapy genspider so image.so.com

2.響應(yīng)對象屬性及方法

?# 屬性
1滑频、response.text :獲取響應(yīng)內(nèi)容 - 字符串
2橄教、response.body :獲取bytes數(shù)據(jù)類型
3、response.xpath('')
?
? # response.xpath('')調(diào)用方法
1、結(jié)果 :列表,元素為選擇器對象
? # <selector xpath='//article' data=''>
2、.extract() :提取文本內(nèi)容,將列表中所有元素序列化為Unicode字符串
3、.extract_first() :提取列表中第1個文本內(nèi)容
4叙量、.get() : 提取列表中第1個文本內(nèi)容

代碼實現(xiàn)

1.定義要爬取的數(shù)據(jù)結(jié)構(gòu)(items.py)
# -*- coding: utf-8 -*-

# Define here the models for your scraped items
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/items.html

import scrapy


class SoItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    img_link = scrapy.Field()
2.爬蟲文件實現(xiàn)圖片鏈接爬取,把鏈接yield到項目管道
# -*- coding: utf-8 -*-
import scrapy
import json
from ..items import SoItem

class SoSpider(scrapy.Spider):
    name = 'so'
    allowed_domains = ['image.so.com']

    # 重寫start_requests()方法九串,把所有URL地址都交給調(diào)度器
    def start_requests(self):
        url = "https://image.so.com/zjl?ch=beauty&t1=595&src=banner_beauty&sn={}&listtype=new&temp=1"
        #生成5頁地址绞佩,交給調(diào)度器
        for i in range(5):
            sn = i * 30
            full_url = url.format(sn)
            # 交給調(diào)度器
            yield scrapy.Request(
                url = full_url ,
                callback=self.parse_image
            )

    def parse_image(self, response):
        html = json.loads(response.text)
        #提取圖片鏈接
        for img in html["list"]:
            item = SoItem()
            item["img_link"] = img["qhimg_url"]
            yield item
3.pipelines.py
# -*- coding: utf-8 -*-

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html

#導(dǎo)入scrapy的圖片管道類
from scrapy.pipelines.images import ImagesPipeline
import scrapy

#1.繼承 ImagesPipeline
#2.重寫類內(nèi)方法
class SoPipeline(ImagesPipeline):
    def get_media_requests(self, item, info):
        #把圖片鏈接發(fā)給調(diào)度器
        yield scrapy.Request(url = item['img_link'])
4.settings.py

定義圖片存儲路徑:IMAGES_STORE = 'D:\node\nd\spider\day09\photo\'
打開CONCURRENT_REQUESTS = 10寺鸥,最大并發(fā)量,注意以下沒注釋的代碼。

# -*- coding: utf-8 -*-

# Scrapy settings for So project
#
# For simplicity, this file contains only settings considered important or
# commonly used. You can find more settings consulting the documentation:
#
#     https://docs.scrapy.org/en/latest/topics/settings.html
#     https://docs.scrapy.org/en/latest/topics/downloader-middleware.html
#     https://docs.scrapy.org/en/latest/topics/spider-middleware.html

BOT_NAME = 'So'

SPIDER_MODULES = ['So.spiders']
NEWSPIDER_MODULE = 'So.spiders'


# Crawl responsibly by identifying yourself (and your website) on the user-agent
#USER_AGENT = 'So (+http://www.yourdomain.com)'

# Obey robots.txt rules
ROBOTSTXT_OBEY = False

# Configure maximum concurrent requests performed by Scrapy (default: 16)
#最大并發(fā)量品山,默認16
CONCURRENT_REQUESTS = 10

# Configure a delay for requests for the same website (default: 0)
# See https://docs.scrapy.org/en/latest/topics/settings.html#download-delay
# See also autothrottle settings and docs
#DOWNLOAD_DELAY = 3
# The download delay setting will honor only one of:
#CONCURRENT_REQUESTS_PER_DOMAIN = 16
#CONCURRENT_REQUESTS_PER_IP = 16

# Disable cookies (enabled by default)
#COOKIES_ENABLED = False

# Disable Telnet Console (enabled by default)
#TELNETCONSOLE_ENABLED = False

# Override the default request headers:
DEFAULT_REQUEST_HEADERS = {
  'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
  'Accept-Language': 'en',
  'User-Agent':'Mozilla/5.0'
}

# Enable or disable spider middlewares
# See https://docs.scrapy.org/en/latest/topics/spider-middleware.html
#SPIDER_MIDDLEWARES = {
#    'So.middlewares.SoSpiderMiddleware': 543,
#}

# Enable or disable downloader middlewares
# See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html
#DOWNLOADER_MIDDLEWARES = {
#    'So.middlewares.SoDownloaderMiddleware': 543,
#}

# Enable or disable extensions
# See https://docs.scrapy.org/en/latest/topics/extensions.html
#EXTENSIONS = {
#    'scrapy.extensions.telnet.TelnetConsole': None,
#}

# Configure item pipelines
# See https://docs.scrapy.org/en/latest/topics/item-pipeline.html
ITEM_PIPELINES = {
   'So.pipelines.SoPipeline': 300,
}

# Enable and configure the AutoThrottle extension (disabled by default)
# See https://docs.scrapy.org/en/latest/topics/autothrottle.html
#AUTOTHROTTLE_ENABLED = True
# The initial download delay
#AUTOTHROTTLE_START_DELAY = 5
# The maximum download delay to be set in case of high latencies
#AUTOTHROTTLE_MAX_DELAY = 60
# The average number of requests Scrapy should be sending in parallel to
# each remote server
#AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0
# Enable showing throttling stats for every response received:
#AUTOTHROTTLE_DEBUG = False

# Enable and configure HTTP caching (disabled by default)
# See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings
#HTTPCACHE_ENABLED = True
#HTTPCACHE_EXPIRATION_SECS = 0
#HTTPCACHE_DIR = 'httpcache'
#HTTPCACHE_IGNORE_HTTP_CODES = []
#HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'

IMAGES_STORE = 'D:\\node\\nd\\spider\\day09\\photo\\'

5.爬取結(jié)束后胆建,會在目錄下生成full文件,里面有我想爬取的150文件肘交,

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末笆载,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子涯呻,更是在濱河造成了極大的恐慌凉驻,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,576評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件复罐,死亡現(xiàn)場離奇詭異涝登,居然都是意外死亡,警方通過查閱死者的電腦和手機效诅,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,515評論 3 399
  • 文/潘曉璐 我一進店門胀滚,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人填帽,你說我怎么就攤上這事蛛淋。” “怎么了篡腌?”我有些...
    開封第一講書人閱讀 168,017評論 0 360
  • 文/不壞的土叔 我叫張陵,是天一觀的道長勾效。 經(jīng)常有香客問我嘹悼,道長,這世上最難降的妖魔是什么层宫? 我笑而不...
    開封第一講書人閱讀 59,626評論 1 296
  • 正文 為了忘掉前任杨伙,我火速辦了婚禮,結(jié)果婚禮上萌腿,老公的妹妹穿的比我還像新娘限匣。我一直安慰自己,他們只是感情好毁菱,可當(dāng)我...
    茶點故事閱讀 68,625評論 6 397
  • 文/花漫 我一把揭開白布米死。 她就那樣靜靜地躺著,像睡著了一般贮庞。 火紅的嫁衣襯著肌膚如雪峦筒。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 52,255評論 1 308
  • 那天窗慎,我揣著相機與錄音物喷,去河邊找鬼卤材。 笑死,一個胖子當(dāng)著我的面吹牛峦失,可吹牛的內(nèi)容都是我干的扇丛。 我是一名探鬼主播,決...
    沈念sama閱讀 40,825評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼尉辑,長吁一口氣:“原來是場噩夢啊……” “哼晕拆!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起材蹬,我...
    開封第一講書人閱讀 39,729評論 0 276
  • 序言:老撾萬榮一對情侶失蹤实幕,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后堤器,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體昆庇,經(jīng)...
    沈念sama閱讀 46,271評論 1 320
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,363評論 3 340
  • 正文 我和宋清朗相戀三年闸溃,在試婚紗的時候發(fā)現(xiàn)自己被綠了整吆。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,498評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡辉川,死狀恐怖表蝙,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情乓旗,我是刑警寧澤府蛇,帶...
    沈念sama閱讀 36,183評論 5 350
  • 正文 年R本政府宣布,位于F島的核電站屿愚,受9級特大地震影響汇跨,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜妆距,卻給世界環(huán)境...
    茶點故事閱讀 41,867評論 3 333
  • 文/蒙蒙 一穷遂、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧娱据,春花似錦蚪黑、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,338評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至咽安,卻和暖如春伴网,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背妆棒。 一陣腳步聲響...
    開封第一講書人閱讀 33,458評論 1 272
  • 我被黑心中介騙來泰國打工澡腾, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留沸伏,地道東北人。 一個月前我還...
    沈念sama閱讀 48,906評論 3 376
  • 正文 我出身青樓动分,卻偏偏與公主長得像毅糟,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子澜公,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 45,507評論 2 359

推薦閱讀更多精彩內(nèi)容

  • 本文承接上一篇爬蟲開篇的說明----上一篇已經(jīng)很好的用到了reqquests,Beautifulsoup等庫姆另,以及...
    strive魚閱讀 2,003評論 0 4
  • Selectors 在抓取一個web頁面的時候,大多數(shù)任務(wù)在于從HTML源中提取數(shù)據(jù)坟乾。有很多可用的的庫支持這些操作...
    別摸我蒙哥閱讀 5,379評論 0 0
  • 引 在簡書中有很多主題頻道迹辐,里面有大量優(yōu)秀的文章,我想收集這些文章用于提取對我有用的東西甚侣; 無疑爬蟲是一個好的選擇...
    虎七閱讀 1,411評論 0 3
  • 強項是自己最擅長的技能或某方面的優(yōu)勢明吩,我的強項應(yīng)該是臉皮比較厚吧,就是事情不往心里去殷费。 年紀越大越看清了一些事情印荔,...
    scarle閱讀 4,592評論 0 0
  • 1.今天是有計劃變動的一天仍律,我早上加了單詞環(huán)節(jié)!導(dǎo)致今天的節(jié)奏有點點受影響实柠。而且今天頭還很痛痛水泉!但是中午的背誦以及...
    65dee3a95f79閱讀 221評論 0 0