CrawlSpider

CrawlSpider
1.創(chuàng)建項目
scrapy startproject + 項目名稱
2.cd spider
3.scrapy genspider -t ceawl 名稱 + 域
scrapy genspider -t crawl qidian qidian.com

1).繼承的類
2).rules
     RULE
        linkExtroct
3).不能用parse方法
4).parse_start_url

下載中間件:處于引擎和下載起之間

反爬措施:
1.基于請求頭的反爬(合理構(gòu)建請求頭)(請求頭參數(shù)User-Agent Referer cookie,常見狀態(tài)碼史侣,常見的請求方式)
2.基于cookie的反爬(cookie池,文件存儲,數(shù)據(jù)庫存儲【需要登錄注冊信息時候时呀,需要cookie信息才會用到】)
3.基于IP的反爬(代理,代理的原理,代理怎么獲取,代理如何檢測开财,代理池)
4.基于動態(tài)加載的網(wǎng)頁(ajax,js,jq)(seleium眶拉、無頭矛洞,有頭瀏覽器春叫?selenium)
5.關(guān)于數(shù)據(jù)加密忆植?(js,app,web網(wǎng)頁)

下載中間件的方法
@classmethod
def from_crawler(cls,crawler)

def process_request(self,request,spider)
所有的request請求在交給下載器之前都會經(jīng)過這個方法
    # - return None: continue processing this request
    # - or return a Response object
    # - or return a Request object
    # - or raise IgnoreRequest: process_exception() methods of
    #   installed downloader middleware will be called

def process_response(self,request,response,spider)
所有的響應(yīng)結(jié)果會經(jīng)過這個方法
    # - return a Response object
    # - return a Request object
    # - or raise IgnoreRequest

def process_exception(self,request,exception,spider)
#處理異常錯誤

中間件:
User-Agent
Cookies
IP
Selenium

激活中間件(settings.py):中間件后面的數(shù)值越小,優(yōu)先級越高
DOWNLOADER_MIDDLEWARES = {
   # 'downloadmiddlerware.middlewares.DownloadmiddlerwareDownloaderMiddleware': 543,
   # 'downloadmiddlerware.middlewares.UserAgentDownloadMiddlerware':543,
     'downloadmiddlerware.middlewares.SeleniumDownloadMiddlerWare':543,
}

下載cookie中間件視為了 在每次發(fā)起請求是可以攜帶多個不同的用戶發(fā)起請求
setting.py
COOKIE = [
{'cookie1':'xxxxx'},
{'cookie2':'xxxxx'},
{'cookie3':'xxxxx'},
{'cookie4':'xxxxx'}
]

scrapy并不支持動態(tài)網(wǎng)頁的加載
設(shè)置selenium中間件
class SeleniumDownloadXXXXX(object):
#設(shè)置瀏覽器加載
self.drive = webdriver.Chrome(
executable_path=''
)
self.drive.set_page_load_timeout(10)
def process_request(self,request,spider)

關(guān)于爬蟲的斷電爬取:
scrapy crawl 項目名稱 -s JOBDIR=crawls/爬蟲名稱 項目路徑
request.queue:保存的請求的任務(wù)隊列
request.seen:保存的是指紋
spider.status:爬蟲運(yùn)行的狀態(tài)

scrapy settings.py設(shè)置文件(相關(guān)參數(shù))

分布式

pip3 install scrapy-redis

修改設(shè)置文件
(1)#設(shè)置去重組件,使用的是scrapy_redis的去重組件,而不再使用scrapy框架

自己的去重組件了

DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
(2)#設(shè)置調(diào)度器,使用的是scrapy_redis重寫的調(diào)度器,而不再使用scrapy框架

自帶的調(diào)度器了

SCHEDULER = "scrapy_redis.scheduler.Scheduler"
(3)#可以實現(xiàn)斷點爬绕贪铡(請求的記錄不會丟失,會存儲在redis數(shù)據(jù)庫中,

不會清除redis的任務(wù)隊列)

SCHEDULER_PERSIST = True

(4)#設(shè)置任務(wù)隊列的模式(三選一)

SpiderPriorityQueue是scrapy_redis默認(rèn)使用的隊列模式

(有自己的優(yōu)先級)

SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderPriorityQueue"

使用了隊列的形式,任務(wù)先進(jìn)先出

SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderQueue"

采用了棧的形式,任務(wù)先進(jìn)后出

SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderStack"

(5)

實現(xiàn)這個管道,可以將爬蟲端獲取的item數(shù)據(jù),統(tǒng)一保存

在redis數(shù)據(jù)庫中

'scrapy_redis.pipelines.RedisPipeline': 400,

(6)

指定要存儲的redis數(shù)據(jù)庫的主機(jī)ip

REDIS_HOST = '127.0.0.1'

指定redis數(shù)據(jù)庫主機(jī)的端口

REDIS_PORT = 6379

"xcfCrawlSpider:requests":存儲的是請求的request對象
"xcfCrawlSpider:items":存儲的爬蟲端獲取的items數(shù)據(jù)
"xcfCrawlSpider:dupefilter":存儲的指紋(為了實現(xiàn)去重)
127.0.0.1:6379> type xcfCrawlSpider:requests
zset
127.0.0.1:6379> type xcfCrawlSpider:items
list
127.0.0.1:6379> type xcfCrawlSpider:dupefilter
set

第一中情況:只設(shè)置settings.py文件,并沒有實現(xiàn)分布式,知識使用了sctapy_redis的數(shù)據(jù)存儲和去重功能

第二中情況:實現(xiàn)通用爬蟲的分布式爬蟲
from scrapy_redis.spiders import RedisCrawlSpider

#繼承制:RedisCrawlSpider
class MyCrawler(RedisCrawlSpider):
    """Spider that reads urls from redis queue (myspider:start_urls)."""
    name = 'mycrawler_redis'
    allowed_domains = ['dmoz.org']
    #缺少了start_url,多了redis_key:根據(jù)redis_key從redis
    #數(shù)據(jù)庫中獲取任務(wù)
    redis_key = 'mycrawler:start_urls'


啟動爬蟲:scrapy crawl 爬蟲名稱

現(xiàn)象:爬蟲處于等待狀態(tài)

需要設(shè)置起始任務(wù):
lpush mycrawler:start_urls 目標(biāo)url

第三中情況:實現(xiàn)scrpy.spider爬蟲的分布式爬蟲

from scrapy_redis.spiders import RedisSpider

#繼承制:RedisSpider
class MyCrawler(RedisSpider):
    """Spider that reads urls from redis queue (myspider:start_urls)."""
    name = 'mycrawler_redis'
    allowed_domains = ['dmoz.org']
    #缺少了start_url,多了redis_key:根據(jù)redis_key從redis
    #數(shù)據(jù)庫中獲取任務(wù)
    redis_key = 'mycrawler:start_urls'


啟動爬蟲:scrapy crawl 爬蟲名稱

現(xiàn)象:爬蟲處于等待狀態(tài)

需要設(shè)置起始任務(wù):
lpush mycrawler:start_urls 目標(biāo)url

dmoz.py

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市残炮,隨后出現(xiàn)的幾起案子韭赘,更是在濱河造成了極大的恐慌,老刑警劉巖吉殃,帶你破解...
    沈念sama閱讀 221,331評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件辞居,死亡現(xiàn)場離奇詭異,居然都是意外死亡蛋勺,警方通過查閱死者的電腦和手機(jī)瓦灶,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,372評論 3 398
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來抱完,“玉大人贼陶,你說我怎么就攤上這事∏捎椋” “怎么了碉怔?”我有些...
    開封第一講書人閱讀 167,755評論 0 360
  • 文/不壞的土叔 我叫張陵,是天一觀的道長禁添。 經(jīng)常有香客問我撮胧,道長,這世上最難降的妖魔是什么老翘? 我笑而不...
    開封第一講書人閱讀 59,528評論 1 296
  • 正文 為了忘掉前任芹啥,我火速辦了婚禮锻离,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘墓怀。我一直安慰自己汽纠,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 68,526評論 6 397
  • 文/花漫 我一把揭開白布傀履。 她就那樣靜靜地躺著虱朵,像睡著了一般。 火紅的嫁衣襯著肌膚如雪钓账。 梳的紋絲不亂的頭發(fā)上碴犬,一...
    開封第一講書人閱讀 52,166評論 1 308
  • 那天,我揣著相機(jī)與錄音官扣,去河邊找鬼翅敌。 笑死,一個胖子當(dāng)著我的面吹牛惕蹄,可吹牛的內(nèi)容都是我干的蚯涮。 我是一名探鬼主播,決...
    沈念sama閱讀 40,768評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼卖陵,長吁一口氣:“原來是場噩夢啊……” “哼遭顶!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起泪蔫,我...
    開封第一講書人閱讀 39,664評論 0 276
  • 序言:老撾萬榮一對情侶失蹤棒旗,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后撩荣,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體铣揉,經(jīng)...
    沈念sama閱讀 46,205評論 1 319
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,290評論 3 340
  • 正文 我和宋清朗相戀三年餐曹,在試婚紗的時候發(fā)現(xiàn)自己被綠了逛拱。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,435評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡台猴,死狀恐怖朽合,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情饱狂,我是刑警寧澤曹步,帶...
    沈念sama閱讀 36,126評論 5 349
  • 正文 年R本政府宣布,位于F島的核電站休讳,受9級特大地震影響讲婚,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜俊柔,卻給世界環(huán)境...
    茶點故事閱讀 41,804評論 3 333
  • 文/蒙蒙 一筹麸、第九天 我趴在偏房一處隱蔽的房頂上張望纳猫。 院中可真熱鬧,春花似錦竹捉、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,276評論 0 23
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至倔丈,卻和暖如春憨闰,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背需五。 一陣腳步聲響...
    開封第一講書人閱讀 33,393評論 1 272
  • 我被黑心中介騙來泰國打工鹉动, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人宏邮。 一個月前我還...
    沈念sama閱讀 48,818評論 3 376
  • 正文 我出身青樓泽示,卻偏偏與公主長得像,于是被迫代替她去往敵國和親蜜氨。 傳聞我的和親對象是個殘疾皇子械筛,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 45,442評論 2 359

推薦閱讀更多精彩內(nèi)容