大概流程
8986d6be-2de6-47b6-9318-e6822b63bb08.png
一咽块、制作Scrapy 爬蟲(chóng) 一共需要4步:
- 1.新建項(xiàng)目
scrapy startproject 爬蟲(chóng)項(xiàng)目名稱(chēng)
- 2.新建一個(gè)新的爬蟲(chóng), 明確目標(biāo)
編寫(xiě)items.py:明確你想要抓取的目標(biāo)
- 制作爬蟲(chóng)
scrapy genspider 爬蟲(chóng)文件名稱(chēng) 域名:制作爬蟲(chóng)開(kāi)始爬取網(wǎng)頁(yè)
- 存儲(chǔ)內(nèi)容
二侈沪、這些簡(jiǎn)單的命令就是新建一個(gè)scrapy爬蟲(chóng)項(xiàng)目了晚凿,接下來(lái)就開(kāi)始寫(xiě)代碼了
- (1)settings.py 修改一些基本的設(shè)置
1歼秽、是否遵守robot協(xié)議(為T(mén)rue表示遵守)
ROBOTSTXT_OBEY = False
2、設(shè)置下載延時(shí)(默認(rèn)為0)
DOWNLOAD_DELAY = 1(秒)
3箩祥、構(gòu)建一個(gè)請(qǐng)求頭:設(shè)置'User-Agent'
DEFAULT_REQUEST_HEADERS = {
'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36',
4肆氓、激活管道,管道文件后面跟的數(shù)字, 表示的是優(yōu)先級(jí),數(shù)字越小,優(yōu)先級(jí)越高
ITEM_PIPELINES = {
'chinaz.pipelines.ChinazPipeline': 300,
}
5蕉陋、如果要是存儲(chǔ)數(shù)據(jù)庫(kù)就添加以下代碼比如:
MYSQL_HOST = 'localhost'‘
#用戶(hù)
MYSQL_USER = 'root'
#密碼
MYSQL_PWD = 'a123'
#數(shù)據(jù)庫(kù)
MYSQL_DB = 'wangzhandb'
- (2)item.py:定義要爬取的字段
class ChinazWebItem(scrapy.Item):
#標(biāo)題
webName = scrapy.Field()
#周排名
weekRank = scrapy.Field()
#反連接數(shù)
linkNum = scrapy.Field()
- (3)爬蟲(chóng)文件.py
#存儲(chǔ)數(shù)據(jù)的容器寺滚,這是在item.py中定義你要爬取的字段
from chinaz.items import ChinazItem,ChinazWebItem
#修改起始的url (可以指定多個(gè))
start_urls = ['你要爬取的url']
#接下來(lái)你只需要爬取你所需要的數(shù)據(jù)了
def req_url():
獲取到你想要的數(shù)據(jù)屈雄。
要是獲取到新的url官套,就發(fā)起新的響應(yīng)
#使用yield函數(shù)
yield Request(url=parse.urljoin(新的url), meta={參數(shù)},
callback=你要調(diào)用的函數(shù))
def parse_detail(self,response):
寫(xiě)你要爬取的數(shù)據(jù)
- (4)pipelines.py:#在這里做數(shù)據(jù)的過(guò)濾和持久化
- 注意:在使用管道之前,我們要先激活管道,在settings文件中激活
pipelines.py:設(shè)計(jì)管道存儲(chǔ)爬取內(nèi)容
如果要是存儲(chǔ)數(shù)據(jù)庫(kù)的話就添加下面的代碼
class WangzhanprojectPipeline(object):
def __init__(self, host, user, pwd, db):
# 創(chuàng)建mysql連接
self.client = pymysql.Connect(host, user, pwd, db, charset='utf8')
# 創(chuàng)建游標(biāo)
self.cursor = self.client.cursor()
@classmethod
def from_crawler(cls, crawler):
host = crawler.settings['MYSQL_HOST']
user = crawler.settings['MYSQL_USER']
pwd = crawler.settings['MYSQL_PWD']
db = crawler.settings['MYSQL_DB']
return cls(host, user, pwd, db)
#保存到本地
class ChinazPipeline(object):
def __init__(self):
#一般在初始化方法里面創(chuàng)建數(shù)據(jù)庫(kù)連接,或者是文件
self.file = open('chinaz.json','a+')
self.webFile = open('chinazweb.json','a+')
在這里面處理引擎?zhèn)鬟^(guò)來(lái)的數(shù)據(jù),進(jìn)行保存
- (5)middlewaresSpider.py:中間件
三杠氢、各個(gè)py文件之間的關(guān)系
- (1) Scrapy Engine(引擎): 負(fù)責(zé)Spider另伍、ItemPipeline摆尝、Downloader、Scheduler中間的通訊堕汞,信號(hào)讯检、數(shù)據(jù)傳遞等。
- (2) Scheduler(調(diào)度器): 它負(fù)責(zé)接受引擎發(fā)送過(guò)來(lái)的Request請(qǐng)求人灼,并按照一定的方式進(jìn)行整理排列投放,入隊(duì),當(dāng)引擎需要時(shí)段磨,交還給引擎耗绿。
- (3) Downloader(下載器):負(fù)責(zé)下載Scrapy Engine(引擎)發(fā)送的所有Requests請(qǐng)求,并將其獲取到的Responses交還給Scrapy Engine(引擎)债蜜,由引擎交給Spider來(lái)處理究反,
- (4) Spider(爬蟲(chóng)):它負(fù)責(zé)處理所有Responses,從中分析提取數(shù)據(jù),獲取Item字段需要的數(shù)據(jù)狼速,并將需要跟進(jìn)的URL提交給引擎卦停,再次進(jìn)入Scheduler(調(diào)度器)恼蓬,
- (5) Item Pipeline(管道):它負(fù)責(zé)處理Spider中獲取到的Item处硬,并進(jìn)行進(jìn)行后期處理(詳細(xì)分析拇派、過(guò)濾、存儲(chǔ)等)的地方.
- (6) Downloader Middlewares(下載中間件):你可以當(dāng)作是一個(gè)可以自定義擴(kuò)展下載功能的組件疮方。
- (7) Spider Middlewares(Spider中間件):你可以理解為是一個(gè)可以自定擴(kuò)展和操作引擎和Spider中間通信的功能組件(比如進(jìn)入Spider的Responses;和從Spider出去的Requests)