首先上圖:(因?yàn)楣ぷ髟蚱臃危?xiàng)目名需要打碼)
由于各方面原因,需要將多個(gè)爬蟲部署在一起坚洽,scrapy可以很好的解決這個(gè)問題戈稿。
接下來,開始無腦CV大法做實(shí)驗(yàn):
1:創(chuàng)建一個(gè)scrapy程序:scraps startproject MySpides
2.瘋狂創(chuàng)建項(xiàng)目: scrapy genspider BaiduBaidu.com?
scrapy genspider taobaotaobao.com
scrapy genspider jianshujianshu.com
… …
3.配置問題:
面對(duì)每一個(gè)爬蟲讶舰,配置也不一樣鞍盗,這時(shí)候,該怎么辦绘雁?沒錯(cuò)橡疼! 看到custom_settings.py文件了嗎?就是這個(gè)庐舟,我將每個(gè)爬蟲單獨(dú)的配置放在里面了.對(duì)于settings.py我將公共配置(例如延遲欣除,U-A等等)放在里面。
4.啟動(dòng)配置:
在scrapy中提供了一個(gè)custom_settings 關(guān)鍵字挪略,可以在爬蟲項(xiàng)目中使用其指向該項(xiàng)目的配置.
custom_settings =custom_settings_for_baidu
將這句話添加作為項(xiàng)目的類函數(shù)就好
5.怎么可能還有5呢历帚?結(jié)束了!躁起來杠娱!
喜歡的話就點(diǎn)個(gè)贊吧挽牢!