Scrapy_Redis Settings.py設(shè)置文件

項目名稱

BOT_NAME = 'downloadmiddlerware'

爬蟲存儲的文件路徑

SPIDER_MODULES = ['downloadmiddlerware.spiders']

創(chuàng)建爬蟲文件的模版,創(chuàng)建號的爬蟲文件會存放在這個目錄下

NEWSPIDER_MODULE = 'downloadmiddlerware.spiders'

設(shè)置ua,來模擬瀏覽器請求

#USER_AGENT = 'downloadmiddlerware (+http://www.yourdomain.com)'

設(shè)置是否需要準守robot協(xié)議:默認為True

ROBOTSTXT_OBEY = False

設(shè)置請求的最大并發(fā)數(shù)據(jù)(下載器) 默認是16

#CONCURRENT_REQUESTS = 32

設(shè)置請求的下載延時,默認為0

#DOWNLOAD_DELAY = 3

設(shè)置網(wǎng)站的最大并發(fā)請求數(shù)量,默認是8

#CONCURRENT_REQUESTS_PER_DOMAIN = 16

設(shè)置某個ip的最大并發(fā)請求數(shù)量,默認是0

如果非0

1.CONCURRENT_REQUESTS_PER_DOMAIN不生效,
這時候請求的并發(fā)數(shù)量將針對于ip,而不是網(wǎng)站了

2.設(shè)置的DOWNLOAD_DELAY就是正對于ip而不是網(wǎng)站了
CONCURRENT_REQUESTS_PER_IP = 16

是否攜帶cookies:默認為True

COOKIES_ENABLED = False

COOKIES_DEBUG:跟蹤cookies,默認情況下為False

COOKIES_DEBUG =True

關(guān)于日志信息的設(shè)置

LOG_FILE = 'xxx.log'
LOG_LEVEL = 'INFO/DEBUG/....'

是一個終端的擴展插件

#TELNETCONSOLE_ENABLED = False

設(shè)置默認的請求頭(cookies信息不要放在這里)

DEFAULT_REQUEST_HEADERS = {
  # 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
  # 'Accept-Language': 'en',
    'User-Agent':'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Mobile Safari/537.36',

}

設(shè)置和激活爬蟲中間件

#SPIDER_MIDDLEWARES = {
#    'downloadmiddlerware.middlewares.DownloadmiddlerwareSpiderMiddleware': 543,
#}

設(shè)置和激活下載中間件(后面的數(shù)字表示優(yōu)先級)

DOWNLOADER_MIDDLEWARES = {
   # 'downloadmiddlerware.middlewares.DownloadmiddlerwareDownloaderMiddleware': 543,
   #  'downloadmiddlerware.middlewares.UserAgentDownloadMiddlerware':543,
    'downloadmiddlerware.middlewares.SeleniumDownloadMiddlerWare':543,
}

設(shè)置擴展

#EXTENSIONS = {
#    'scrapy.extensions.telnet.TelnetConsole': None,
#}

設(shè)置和激活管道文件(后面的數(shù)字表示優(yōu)先級)

#ITEM_PIPELINES = {
#    'downloadmiddlerware.pipelines.DownloadmiddlerwarePipeline': 300,
#}

自動限速的擴展(實現(xiàn)上一個請求和下一個請求之間的時間是不固定的)

默認請情框下自動限速的擴展是關(guān)閉的:AUTOTHROTTLE_ENABLED:False

# AUTOTHROTTLE_ENABLED = True

初始的下載吧延時默認是5秒

# AUTOTHROTTLE_START_DELAY = 5

最大下載延時

# AUTOTHROTTLE_MAX_DELAY = 60

針對于網(wǎng)站的最大的并行請求數(shù)量

# AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0

調(diào)試模式:默認為False,未開啟

# AUTOTHROTTLE_DEBUG = False

設(shè)置數(shù)據(jù)的緩存,默認情況下是未開啟的

HTTPCACHE_ENABLED = True

設(shè)置緩存的超時時間,默認為0表示永久有效

HTTPCACHE_EXPIRATION_SECS = 0

設(shè)置緩存的存儲文件路徑

HTTPCACHE_DIR = 'httpcache'

忽略某些狀態(tài)碼的請求結(jié)果(Response)

HTTPCACHE_IGNORE_HTTP_CODES = []

開始緩存的擴展插件

HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'

USERAGENT = [
    'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0',
    'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko)     Chrome/14.0.835.163 Safari/535.1',
    'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1     Safari/534.50',
]

代理

PROXIES = [
{'ip':'127.0.0.1:6379','pwd':'zyx:123456'},
{'ip':'127.0.0.1:6379','pwd':None},
{'ip':'127.0.0.1:6379','pwd':None},
{'ip':'127.0.0.1:6379','pwd':None},
{'ip':'127.0.0.1:6379','pwd':None},
]

cookies池

COOKIES = [
{'cookie1':'xxxxxx'},
{'cookie1':'xxxxxx'},
{'cookie1':'xxxxxx'},
{'cookie1':'xxxxxx'},
]

設(shè)置去重組件,使用的是scrapy_redis的去重組件,而不再使用scrapy框架自己的去重組件了

DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"

設(shè)置調(diào)度器,使用的是scrapy_redis重寫的調(diào)度器,而不再使用scrapy框架自帶的調(diào)度器了

SCHEDULER = "scrapy_redis.scheduler.Scheduler"

可以實現(xiàn)斷點爬染翰(請求的記錄不會丟失,會存儲在redis數(shù)據(jù)庫中,不會清除redis的任務(wù)隊列)

SCHEDULER_PERSIST = True

設(shè)置任務(wù)隊列的模式

SpiderPriorityQueue是scrapy_redis默認使用的隊列模式(有自己的優(yōu)先級)

SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderPriorityQueue"

使用了隊列的形式,任務(wù)先進先出

#SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderQueue"

采用了棧的形式,任務(wù)先進后出

#SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderStack"

ITEM_PIPELINES = {
    'example.pipelines.ExamplePipeline': 300,
    # 實現(xiàn)這個管道,可以將爬蟲端獲取的item數(shù)據(jù),統(tǒng)一保存在redis數(shù)據(jù)庫中
    'scrapy_redis.pipelines.RedisPipeline': 400,
}

指定要存儲的redis數(shù)據(jù)庫的主機ip

REDIS_HOST = '127.0.0.1'

指定redis數(shù)據(jù)庫主機的端口

REDIS_PORT = 6379

僅為個人學習小結(jié)灿巧,若有錯處,歡迎指正~

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市疚察,隨后出現(xiàn)的幾起案子寨腔,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 206,378評論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件招驴,死亡現(xiàn)場離奇詭異,居然都是意外死亡枷畏,警方通過查閱死者的電腦和手機别厘,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,356評論 2 382
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來拥诡,“玉大人触趴,你說我怎么就攤上這事】嗜猓” “怎么了冗懦?”我有些...
    開封第一講書人閱讀 152,702評論 0 342
  • 文/不壞的土叔 我叫張陵,是天一觀的道長仇祭。 經(jīng)常有香客問我披蕉,道長,這世上最難降的妖魔是什么乌奇? 我笑而不...
    開封第一講書人閱讀 55,259評論 1 279
  • 正文 為了忘掉前任没讲,我火速辦了婚禮,結(jié)果婚禮上爬凑,老公的妹妹穿的比我還像新娘。我一直安慰自己试伙,他們只是感情好嘁信,可當我...
    茶點故事閱讀 64,263評論 5 371
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著疏叨,像睡著了一般。 火紅的嫁衣襯著肌膚如雪蚤蔓。 梳的紋絲不亂的頭發(fā)上卦溢,一...
    開封第一講書人閱讀 49,036評論 1 285
  • 那天,我揣著相機與錄音昌粤,去河邊找鬼。 笑死涮坐,一個胖子當著我的面吹牛凄贩,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播袱讹,決...
    沈念sama閱讀 38,349評論 3 400
  • 文/蒼蘭香墨 我猛地睜開眼疲扎,長吁一口氣:“原來是場噩夢啊……” “哼昵时!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起椒丧,我...
    開封第一講書人閱讀 36,979評論 0 259
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎壶熏,沒想到半個月后句柠,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 43,469評論 1 300
  • 正文 獨居荒郊野嶺守林人離奇死亡棒假,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 35,938評論 2 323
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了帽哑。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片谜酒。...
    茶點故事閱讀 38,059評論 1 333
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖妻枕,靈堂內(nèi)的尸體忽然破棺而出僻族,到底是詐尸還是另有隱情,我是刑警寧澤屡谐,帶...
    沈念sama閱讀 33,703評論 4 323
  • 正文 年R本政府宣布述么,位于F島的核電站,受9級特大地震影響康嘉,放射性物質(zhì)發(fā)生泄漏籽前。R本人自食惡果不足惜亭珍,卻給世界環(huán)境...
    茶點故事閱讀 39,257評論 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望枝哄。 院中可真熱鬧肄梨,春花似錦挠锥、人聲如沸众羡。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,262評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽粱侣。三九已至,卻和暖如春齐婴,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背稠茂。 一陣腳步聲響...
    開封第一講書人閱讀 31,485評論 1 262
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留哄辣,地道東北人颠悬。 一個月前我還...
    沈念sama閱讀 45,501評論 2 354
  • 正文 我出身青樓毡证,卻偏偏與公主長得像,于是被迫代替她去往敵國和親蔫仙。 傳聞我的和親對象是個殘疾皇子料睛,可洞房花燭夜當晚...
    茶點故事閱讀 42,792評論 2 345