(二)爬蟲框架(5)——scrapy下載中間件

在寫爬蟲的時(shí)候,經(jīng)常會(huì)遇到一個(gè)難題,就是反爬蟲秕脓。反爬蟲策略一般就是檢測(cè)user-agent,IP等等信息儒搭,辨別是機(jī)器發(fā)送請(qǐng)求還是認(rèn)為發(fā)送請(qǐng)求吠架。如何使我們寫的爬蟲突破反爬蟲策略,從而繼續(xù)抓取到需要的信息搂鲫,scrapy的中間件就可以完成這個(gè)需求傍药。

首先了解一下如何防止爬蟲被反,有以下幾個(gè)策略:

1.動(dòng)態(tài)的設(shè)置user-agent魂仍,模擬不同的瀏覽器信息拐辽。
2.禁用cookies(如果不需要登錄),設(shè)置COOKIES_ENABLED控制CookiesMiddleware的開啟和關(guān)閉擦酌。
3.設(shè)置延遲加載俱诸,防止訪問過于頻繁,設(shè)置為2秒以上赊舶,設(shè)置DOWNLOAD_DELAY = 3
4.使用Google/Baidu Cache睁搭,如果百度或者谷歌有待爬取頁(yè)面的緩存數(shù)據(jù),可以通過緩存獲取锯岖。
5.使用代理IP池介袜,每一次請(qǐng)求都更換IP,模擬不同的用戶發(fā)送請(qǐng)求出吹。
6.使用Crawlear(專用于爬蟲的代理組件)遇伞,正確的設(shè)置下載中間件之后,所有的requests請(qǐng)求都是通過Crawlear發(fā)出的捶牢,就不需要使用代理IP了鸠珠。


user-agent 中間件

接下來就用一個(gè)豆瓣爬蟲的例子巍耗,爬一下豆瓣電影排行榜,介紹下載中間件的用法渐排。

class MovieTopSpider(CrawlSpider):
   name = 'movie_top'
   allowed_domains = ['movie.douban.com']
   start_urls = ['https://movie.douban.com/top250?start=0&filter=']

   # 翻頁(yè)規(guī)則炬太,
   pageLink = LinkExtractor(allow=(r"start=\d+&filter="))

   # 定義匹配規(guī)則,callback不可以使用parse()
   rules = (
       Rule(pageLink, callback='parse_page', follow=True),
   )

   def parse_page(self, response):
       print(response.request.headers["User-Agent"])
       print(response.url)

直接運(yùn)行爬蟲驯耻,發(fā)現(xiàn)控制臺(tái)上什么并沒有輸出每一頁(yè)的網(wǎng)址亲族。
原因是沒有設(shè)置user-agent,我們需要在settings.py設(shè)置一下user-agent等信息可缚。

DEFAULT_REQUEST_HEADERS = {
   'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',
   'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
   'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8',
}

啟動(dòng)爬蟲霎迫,發(fā)現(xiàn)控制臺(tái)打印了網(wǎng)址和User-Agent信息。


通過上面的這種設(shè)置方法只能使用一個(gè)user-agent帘靡,不能達(dá)到動(dòng)態(tài)切換的效果知给。此時(shí)就需要中間件的參與了。
在settings.py中定義User-Agent列表:

USER_AGENTS = [
   "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
   "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)",
   "Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
   "Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)",
]

在settings.py的同級(jí)目錄下創(chuàng)建一個(gè)middlewares.py文件描姚,隨機(jī)選取一個(gè)User-Agent涩赢,代碼如下:

class UserAgentMiddleware(object):
   def process_request(self, request, spider):
       user_agent = random.choice(settings.USER_AGENTS)
       request.headers['User-Agent'] = user_agent

將自定義的useragent中間件加入到settings.py中:

DOWNLOADER_MIDDLEWARES = {
   'scrapy_douban.middlewares.UserAgentMiddleware': 600,
}

啟動(dòng)爬蟲,發(fā)現(xiàn)控制臺(tái)上User-Agent信息每一條都是隨機(jī)的轩勘。


雖然已經(jīng)可以隨機(jī)選取User-Agent筒扒,但是settings.py文件中的User-Agent列表只有4條,實(shí)際項(xiàng)目里面需要大量的user-agent信息赃阀,這么配置代碼的可讀性很差霎肯。這一點(diǎn)可以使用fake-useragent庫(kù)(需要安裝)進(jìn)行改善。代碼如下:

from fake_useragent import UserAgent

class UserAgentMiddleware(object):
   def process_request(self, request, spider):
       location = "fake_useragent_" + fake_useragent.VERSION #本地文件路徑
       ua = fake_useragent.UserAgent(use_cache_server=False, path=location) #禁用緩存榛斯,使用本地文件
       request.headers['User-Agent'] = ua.random #隨便從本地文件中取出一個(gè)user-agent

fake-useragent的Json文件下載到本地观游,放到項(xiàng)目目錄中。(可以把之前配置的user-agent列表刪除)
啟動(dòng)爬蟲驮俗,控制臺(tái)上隨機(jī)打印user-agent信息懂缕。


代理IP proxy 中間件

每一次的request請(qǐng)求都會(huì)帶著IP地址進(jìn)行發(fā)送,如果目標(biāo)服務(wù)器檢測(cè)到爬蟲王凑,就會(huì)把本地的IP封禁搪柑。使用代理IP簡(jiǎn)單理解就是把每次的請(qǐng)求附帶著的IP地址進(jìn)行更改,每一次請(qǐng)求的IP都不容易索烹,目標(biāo)服務(wù)器就封禁IP的概率就小了很多了工碾。(代理IP可以到西刺代理去找,切記使用高匿IP)
scrapy使用代理IP百姓,過程如下:
在settings.py中渊额,創(chuàng)建一個(gè)IP_POOLS,里面存放一些可用的IP地址,然后每一次都隨機(jī)一個(gè)旬迹,進(jìn)行訪問火惊。

IP_POOL=[
   {"http":"114.225.168.185:53128"},
   {"http":"114.225.168.185:8123"},
   {"http":"182.88.89.19:8123"},
   {"http":"182.34.33.152:53128"},
   {"http":"  121.31.195.239:8123"}
]

在middlewares.py中創(chuàng)建代理中間件:

class MyproxiesSpiderMiddleware(object):       
   def __init__(self,ip=''):          
       self.ip=ip            
   def process_request(self, request, spider):          
       thisip=random.choice(IP_POOL)          
       request.meta["proxy"]="http://"+thisip["http"]

在settings.py文件中設(shè)置中間件的配置

DOWNLOADER_MIDDLEWARES = {
   'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware': 560,
   'scrapy_douban.middlewares.MyproxiesSpiderMiddleware' : 550,
}

啟動(dòng)項(xiàng)目,可以訪問到目標(biāo)網(wǎng)站奔垦,獲取數(shù)據(jù)屹耐。


跟user-agent一樣,IP_POOL代理IP池中需要的IP數(shù)量很多椿猎,而且免費(fèi)的代理IP惶岭,經(jīng)常是不能用的,在實(shí)際的運(yùn)行環(huán)境中犯眠,需要使用付費(fèi)的代理俗他。我使用的是阿布云代理,可以自行注冊(cè)阔逼,購(gòu)買一條隧道。使用方法很簡(jiǎn)單地沮。
代碼如下:

# 代理IP嗜浮,阿布云代理
class ABProxyMiddleware(object):
   """ 阿布云ip代理配置 """
   def process_request(self, request, spider):
       request.meta["proxy"] = settings.PROXY_SERVER
       request.headers["Proxy-Authorization"] = settings.PROXY_AUTH

在settings.py文件中設(shè)置一下關(guān)于代理和中間件的配置

DOWNLOADER_MIDDLEWARES = {
   'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware': 560,
   'scrapy_douban.middlewares.ABProxyMiddleware' : 550,
}
# 阿布云ip代理配置,包括賬號(hào)密碼
import base64
PROXY_USER = "通行證書"
PROXY_PASS = "通行密鑰"
PROXY_HOST = "HTTP隧道服務(wù)器地址"
PROXY_PORT = "端口"
# for Python3
PROXY_AUTH = "Basic " + base64.urlsafe_b64encode(bytes((PROXY_USER + ":" + PROXY_PASS), "ascii")).decode("utf8")
PROXY_SERVER = "http://" + PROXY_HOST +  ":" + PROXY_PORT

啟動(dòng)爬蟲摩疑,可以正常發(fā)送請(qǐng)求危融,獲取服務(wù)器返回的數(shù)據(jù)。


完整代碼

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末雷袋,一起剝皮案震驚了整個(gè)濱河市吉殃,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌楷怒,老刑警劉巖蛋勺,帶你破解...
    沈念sama閱讀 216,591評(píng)論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異鸠删,居然都是意外死亡抱完,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,448評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門刃泡,熙熙樓的掌柜王于貴愁眉苦臉地迎上來巧娱,“玉大人,你說我怎么就攤上這事烘贴〗恚” “怎么了?”我有些...
    開封第一講書人閱讀 162,823評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵桨踪,是天一觀的道長(zhǎng)老翘。 經(jīng)常有香客問我,道長(zhǎng),這世上最難降的妖魔是什么酪捡? 我笑而不...
    開封第一講書人閱讀 58,204評(píng)論 1 292
  • 正文 為了忘掉前任叁征,我火速辦了婚禮,結(jié)果婚禮上逛薇,老公的妹妹穿的比我還像新娘捺疼。我一直安慰自己,他們只是感情好永罚,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,228評(píng)論 6 388
  • 文/花漫 我一把揭開白布啤呼。 她就那樣靜靜地躺著,像睡著了一般呢袱。 火紅的嫁衣襯著肌膚如雪官扣。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,190評(píng)論 1 299
  • 那天羞福,我揣著相機(jī)與錄音惕蹄,去河邊找鬼。 笑死治专,一個(gè)胖子當(dāng)著我的面吹牛卖陵,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播张峰,決...
    沈念sama閱讀 40,078評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼泪蔫,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了喘批?” 一聲冷哼從身側(cè)響起撩荣,我...
    開封第一講書人閱讀 38,923評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎饶深,沒想到半個(gè)月后餐曹,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,334評(píng)論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡敌厘,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,550評(píng)論 2 333
  • 正文 我和宋清朗相戀三年凸主,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片额湘。...
    茶點(diǎn)故事閱讀 39,727評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡卿吐,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出锋华,到底是詐尸還是另有隱情嗡官,我是刑警寧澤,帶...
    沈念sama閱讀 35,428評(píng)論 5 343
  • 正文 年R本政府宣布毯焕,位于F島的核電站衍腥,受9級(jí)特大地震影響磺樱,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜婆咸,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,022評(píng)論 3 326
  • 文/蒙蒙 一竹捉、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧尚骄,春花似錦块差、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,672評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至需五,卻和暖如春鹉动,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背宏邮。 一陣腳步聲響...
    開封第一講書人閱讀 32,826評(píng)論 1 269
  • 我被黑心中介騙來泰國(guó)打工泽示, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人蜜氨。 一個(gè)月前我還...
    沈念sama閱讀 47,734評(píng)論 2 368
  • 正文 我出身青樓边琉,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親记劝。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,619評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容