Python爬蟲(Scrapy)爬取秀人網(wǎng)

最近睡了午覺之后涣仿,感覺一點(diǎn)精神都沒有凰兑,我覺得需要刺激一下款青。

爬取的網(wǎng)站長(zhǎng)這個(gè)樣子:

點(diǎn)擊這里纲酗,查看網(wǎng)站

image.png

運(yùn)行

默認(rèn)16個(gè)并發(fā),我放公司不知道跑了多久贸伐,周末公司停電了勘天,不知道這個(gè)網(wǎng)站有沒有反爬蟲,我現(xiàn)在還沒遇到捉邢。

有代理脯丝,代理都是各大代理網(wǎng)站的免費(fèi)代理:

proxy.gif

沒有代理:

noproxy.gif

有代理就像蝸牛一樣,代理失敗率還高的嚇人伏伐,免費(fèi)的代理就是不靠譜宠进。

結(jié)果

大小.png
目錄.png
結(jié)果.png

pycharm 如何使用anaconda里面的環(huán)境

File->Default settings->Default project->project interpreter

接著點(diǎn)擊 project interpreter 的右邊的小齒輪,選擇 add local 藐翎,選擇anaconda文件路徑下的python.exe材蹬。接著pycharm會(huì)更新解釋器荆隘,導(dǎo)入模塊等袖订,要稍等一點(diǎn)時(shí)間。

gif.gif

安裝scrapy

pip install scrapy

windos安裝這個(gè)會(huì)出錯(cuò)歇万,因?yàn)橛袃蓚€(gè)依賴模塊twisted pywin32安裝不上末贾,所以只有進(jìn)行本地安裝闸溃。
這個(gè)網(wǎng)站--https://www.lfd.uci.edu/~gohlke/pythonlibs/下載對(duì)應(yīng)的版本安裝,然后在使用上面的那個(gè)命令拱撵。Linux類的電腦辉川,不會(huì)出現(xiàn)這個(gè)問題的。

本地安裝命令,例如安裝Twisted

pin install Twisted?17.9.0?cp36?cp36m?win_amd64.whl

還有安裝一個(gè)pillow,用來處理圖片裕膀。

pip install pillow

運(yùn)行scrapy可能出現(xiàn)問題员串,應(yīng)該是pywin32出錯(cuò),出錯(cuò)的原因就是沒有加入環(huán)境變量昼扛。可以把pywin32_system32里面的文件放到系統(tǒng)中的system32 或者虛擬環(huán)境中的scripts中欲诺。

新建項(xiàng)目

我們先來看下scrapy中的命令:

Scrapy 1.4.0 - no active project

Usage:
  scrapy <command> [options] [args]

Available commands:
  bench         Run quick benchmark test
  fetch         Fetch a URL using the Scrapy downloader
  genspider     Generate new spider using pre-defined templates
  runspider     Run a self-contained spider (without creating a project)
  settings      Get settings values
  shell         Interactive scraping console
  startproject  Create new project
  version       Print Scrapy version
  view          Open URL in browser, as seen by Scrapy

  [ more ]      More commands available when run from project directory

Use "scrapy <command> -h" to see more info about a command

用scrapy命令來創(chuàng)建項(xiàng)目:

scrapy startproject gallery

用pycharm打開項(xiàng)目抄谐,開始coding,代碼來襲


##### 爬取規(guī)則(Spider)
#gallery_spider.py

import scrapy
from scrapy import Request
from gallery.items import GalleryItem


class GallerySpider(scrapy.Spider):
    # Spider 的唯一標(biāo)識(shí) 扰法,必不可少
    name = "gallery_spider"
    # 爬取開始連接  是一個(gè)列表
    start_urls = ['http://www.55156.com/weimeiyijing/fengjingtupian']
    # 默認(rèn)的解析方法
    def parse(self, response):
        # 取當(dāng)前頁(yè)所有的圖片索引url
        urls = response.xpath('//ul[@class="liL"]/li/a/@href').extract()
        self.logger.info('當(dāng)前父圖片urls----->{}'.format(urls))
        for url in urls:
            # 丟給調(diào)度器 加入請(qǐng)求隊(duì)列
            yield Request(url=url, callback=self.img_parse)
            # yield Request(url='http://www.55156.com/weimeiyijing/fengjingtupian/146515.html', callback=self.img_parse)
        # 下一頁(yè)的url
        next_page = response.css('.pages ul li ::attr(href)')[-2].extract()
        # 判斷是否存在下一頁(yè) 和 不最后一頁(yè)
        if next_page and not next_page == '#':
            self.logger.info('存在列表下一頁(yè)------>{}'.format(next_page))
            yield Request(url=response.urljoin(next_page), callback=self.parse)
    
    def img_parse(self, respose):
        '''
          詳細(xì)圖片頁(yè)的解析
        '''
        # 定義提取數(shù)據(jù)結(jié)構(gòu)
        item = GalleryItem()
        #取圖片url
        img_url = respose.css('.articleBody p a img ::attr(src)').extract_first()
        # 取圖片的標(biāo)題
        img_dir = respose.css('.articleTitle h1 ::text').extract_first()
        # 賦值給item
        item['image_url'] = img_url
        item['image_dir'] = img_dir
        
        # 取所有頁(yè)數(shù)
        next_page = respose.css('.pages ul li a ::attr(href)').extract()
        # 判斷頁(yè)數(shù)不為空
        if next_page:
            #取下一頁(yè)url
            next_page = next_page[-1]
        # 判斷是否存在下一頁(yè) 和 不最后一頁(yè)  實(shí)際上這個(gè)地方不用判斷是否存在 因?yàn)樵谥耙呀?jīng)做了一次判斷
        if next_page and not next_page == '#':
            self.logger.info('開始爬取圖片下一頁(yè)-------->{}'.format(next_page))
            # 丟給調(diào)度器 加入請(qǐng)求隊(duì)列
            yield Request(url=respose.urljoin(next_page), callback=self.img_parse)

        yield item

items
#items.py

import scrapy
class GalleryItem(scrapy.Item):
    '''
    定義提取數(shù)據(jù)的結(jié)構(gòu)
    '''
    image_url= scrapy.Field()
    image_dir= scrapy.Field()
中間件
#middlewares.py

from scrapy.downloadermiddlewares.useragent import UserAgentMiddleware
import random

class GallerySpiderMiddleware(UserAgentMiddleware):
    '''
    設(shè)置請(qǐng)求頭 User-Agent
    '''
    user_agent_list = [
        "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
        "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)",
        "Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
        "Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)",
        "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 2.0.50727; Media Center PC 6.0)",
        "Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 1.0.3705; .NET CLR 1.1.4322)",
        "Mozilla/4.0 (compatible; MSIE 7.0b; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.2; .NET CLR 3.0.04506.30)",
        "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN) AppleWebKit/523.15 (KHTML, like Gecko, Safari/419.3) Arora/0.3 (Change: 287 c9dfb30)",
        "Mozilla/5.0 (X11; U; Linux; en-US) AppleWebKit/527+ (KHTML, like Gecko, Safari/419.3) Arora/0.6",
        "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.2pre) Gecko/20070215 K-Ninja/2.1.1",
        "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9) Gecko/20080705 Firefox/3.0 Kapiko/3.0",
        "Mozilla/5.0 (X11; Linux i686; U;) Gecko/20070322 Kazehakase/0.4.5",
        "Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.8) Gecko Fedora/1.9.0.8-1.fc10 Kazehakase/0.5.6",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11",
        "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_3) AppleWebKit/535.20 (KHTML, like Gecko) Chrome/19.0.1036.7 Safari/535.20",
        "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; fr) Presto/2.9.168 Version/11.52",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.11 TaoBrowser/2.0 Safari/536.11",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER",
        "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E; LBBROWSER)",
        "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E; LBBROWSER)",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 LBBROWSER",
        "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E)",
        "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E; QQBrowser/7.0.3698.400)",
        "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)",
        "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Trident/4.0; SV1; QQDownload 732; .NET4.0C; .NET4.0E; 360SE)",
        "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)",
        "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E)",
        "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.89 Safari/537.1",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.89 Safari/537.1",
        "Mozilla/5.0 (iPad; U; CPU OS 4_2_1 like Mac OS X; zh-cn) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8C148 Safari/6533.18.5",
        "Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:2.0b13pre) Gecko/20110307 Firefox/4.0b13pre",
        "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:16.0) Gecko/20100101 Firefox/16.0",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11",
        "Mozilla/5.0 (X11; U; Linux x86_64; zh-CN; rv:1.9.2.10) Gecko/20100922 Ubuntu/10.10 (maverick) Firefox/3.6.10"

    ]

    def process_request(self, request, spider):
        '''
        請(qǐng)求之前的回調(diào)
        '''
        # 隨機(jī)取一個(gè)user-agent
        ua = random.choice(self.user_agent_list)
        spider.logger.info("當(dāng)前UA----->" + ua)
        # 給請(qǐng)求頭設(shè)置User-Agent
        request.headers.setdefault('User-Agent', ua)

user-agent這個(gè)網(wǎng)上一大堆蛹含。http://www.reibang.com/p/da6a44d0791e

管道
#pipelines.py

import os
import scrapy
from scrapy.exceptions import DropItem
from scrapy.pipelines.images import ImagesPipeline


class GalleryPipeline(ImagesPipeline):
    '''
      用來圖片的存儲(chǔ)
    '''

    def get_media_requests(self, item, info):
        '''
         圖片請(qǐng)求
        '''
        yield scrapy.Request(item['image_url'], meta={'item': item})

    def item_completed(self, results, item, info):
        '''
          下載后的回調(diào)
        '''
        image_paths = [x['path'] for ok,x in results if ok]
        # for ok, x in results:
        #     if ok:
        #         print(x['path'])
        if not image_paths:
            print('{}/{}------文件保存失敗'.format(item['image_dir'], item['image_url']))
            raise DropItem("Item contains no images")
        else:
            print('{}/{}------文件保存成功'.format(item['image_dir'], item['image_url']))
        return item


    def file_path(self, request, response=None, info=None):
        '''
         圖片路徑設(shè)置
        '''
        item = request.meta['item']
        img_name = os.path.basename(item['image_url'])

        index = item['image_dir'].find('(')
        if index == -1:
            index = item['image_dir'].find('(')
        if not index == -1:
            item['image_dir'] = item['image_dir'][:index]
        filename = u'{}/{}'.format(item['image_dir'], img_name)
        return filename
配置文件
#settings.py

BOT_NAME = 'gallery'

SPIDER_MODULES = ['gallery.spiders']
NEWSPIDER_MODULE = 'gallery.spiders'

# Obey robots.txt rules 是否遵守robots規(guī)則
ROBOTSTXT_OBEY = False

# Configure maximum concurrent requests performed by Scrapy (default: 16)
#CONCURRENT_REQUESTS = 32

#DOWNLOAD_DELAY = 3


# Disable cookies (enabled by default)  cookeie是否禁用
#COOKIES_ENABLED = False

# Disable Telnet Console (enabled by default)
#TELNETCONSOLE_ENABLED = False

# Override the default request headers: 默認(rèn)請(qǐng)求頭
DEFAULT_REQUEST_HEADERS = {
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
    'Accept-Encoding:': 'gzip, deflate',
    'Accept-Language': 'en_US,en;q=0.8',
    'Connection': 'keep-alive',
    'Content-Type': 'application/x-www-form-urlencoded'
}


# Enable or disable downloader middlewares  下載中間件
# See http://scrapy.readthedocs.org/en/latest/topics/downloader-middleware.html
DOWNLOADER_MIDDLEWARES = {
   'gallery.middlewares.GallerySpiderMiddleware': 543,
}
# 文件保存的地址
IMAGES_STORE = 'F:\\gallery'
# 管道
ITEM_PIPELINES = {
    'gallery.pipelines.GalleryPipeline': 300,
}
運(yùn)行入口
#run.py

from scrapy.cmdline import execute
import os, sys

def func():
    sys.path.insert(0, os.path.dirname(os.path.abspath(__file__)))
    execute('scrapy crawl gallery_spider'.split(' '))

if __name__ == '__main__':
    func()
運(yùn)行可能出現(xiàn)錯(cuò)誤(windos)
ImportError: No module named win32api

安裝pywin32模塊

pip install pywin32

源代碼

這個(gè)實(shí)際比較簡(jiǎn)單的,我就不貼代碼了塞颁,我就寫了高清套圖那個(gè)模塊浦箱。
github地址

似乎上班有點(diǎn)精神了吸耿。。酷窥。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末咽安,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子蓬推,更是在濱河造成了極大的恐慌妆棒,老刑警劉巖,帶你破解...
    沈念sama閱讀 211,042評(píng)論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件沸伏,死亡現(xiàn)場(chǎng)離奇詭異糕珊,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)毅糟,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 89,996評(píng)論 2 384
  • 文/潘曉璐 我一進(jìn)店門红选,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人姆另,你說我怎么就攤上這事纠脾。” “怎么了蜕青?”我有些...
    開封第一講書人閱讀 156,674評(píng)論 0 345
  • 文/不壞的土叔 我叫張陵苟蹈,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我右核,道長(zhǎng)慧脱,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,340評(píng)論 1 283
  • 正文 為了忘掉前任贺喝,我火速辦了婚禮菱鸥,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘躏鱼。我一直安慰自己氮采,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,404評(píng)論 5 384
  • 文/花漫 我一把揭開白布染苛。 她就那樣靜靜地躺著鹊漠,像睡著了一般。 火紅的嫁衣襯著肌膚如雪茶行。 梳的紋絲不亂的頭發(fā)上躯概,一...
    開封第一講書人閱讀 49,749評(píng)論 1 289
  • 那天,我揣著相機(jī)與錄音畔师,去河邊找鬼娶靡。 笑死,一個(gè)胖子當(dāng)著我的面吹牛看锉,可吹牛的內(nèi)容都是我干的姿锭。 我是一名探鬼主播塔鳍,決...
    沈念sama閱讀 38,902評(píng)論 3 405
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼呻此!你這毒婦竟也來了轮纫?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,662評(píng)論 0 266
  • 序言:老撾萬榮一對(duì)情侶失蹤趾诗,失蹤者是張志新(化名)和其女友劉穎蜡感,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體恃泪,經(jīng)...
    沈念sama閱讀 44,110評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡郑兴,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,451評(píng)論 2 325
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了贝乎。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片情连。...
    茶點(diǎn)故事閱讀 38,577評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖览效,靈堂內(nèi)的尸體忽然破棺而出却舀,到底是詐尸還是另有隱情,我是刑警寧澤锤灿,帶...
    沈念sama閱讀 34,258評(píng)論 4 328
  • 正文 年R本政府宣布挽拔,位于F島的核電站,受9級(jí)特大地震影響但校,放射性物質(zhì)發(fā)生泄漏螃诅。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,848評(píng)論 3 312
  • 文/蒙蒙 一状囱、第九天 我趴在偏房一處隱蔽的房頂上張望术裸。 院中可真熱鬧,春花似錦亭枷、人聲如沸袭艺。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,726評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)猾编。三九已至,卻和暖如春宣鄙,著一層夾襖步出監(jiān)牢的瞬間袍镀,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,952評(píng)論 1 264
  • 我被黑心中介騙來泰國(guó)打工冻晤, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人绸吸。 一個(gè)月前我還...
    沈念sama閱讀 46,271評(píng)論 2 360
  • 正文 我出身青樓鼻弧,卻偏偏與公主長(zhǎng)得像设江,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子攘轩,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,452評(píng)論 2 348

推薦閱讀更多精彩內(nèi)容