用scrapy爬取一個(gè)網(wǎng)站的大概流程

大概流程

8986d6be-2de6-47b6-9318-e6822b63bb08.png

一咽块、制作Scrapy 爬蟲(chóng) 一共需要4步:

  • 1.新建項(xiàng)目
scrapy startproject 爬蟲(chóng)項(xiàng)目名稱(chēng)
  • 2.新建一個(gè)新的爬蟲(chóng), 明確目標(biāo)
編寫(xiě)items.py:明確你想要抓取的目標(biāo)
    1. 制作爬蟲(chóng)
 scrapy genspider 爬蟲(chóng)文件名稱(chēng) 域名:制作爬蟲(chóng)開(kāi)始爬取網(wǎng)頁(yè)
    1. 存儲(chǔ)內(nèi)容

二侈沪、這些簡(jiǎn)單的命令就是新建一個(gè)scrapy爬蟲(chóng)項(xiàng)目了晚凿,接下來(lái)就開(kāi)始寫(xiě)代碼了

  • (1)settings.py 修改一些基本的設(shè)置
1歼秽、是否遵守robot協(xié)議(為T(mén)rue表示遵守)
      ROBOTSTXT_OBEY = False


2、設(shè)置下載延時(shí)(默認(rèn)為0)
      DOWNLOAD_DELAY = 1(秒)


3箩祥、構(gòu)建一個(gè)請(qǐng)求頭:設(shè)置'User-Agent'
      DEFAULT_REQUEST_HEADERS = {
    'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36',


4肆氓、激活管道,管道文件后面跟的數(shù)字, 表示的是優(yōu)先級(jí),數(shù)字越小,優(yōu)先級(jí)越高
      ITEM_PIPELINES = {
   'chinaz.pipelines.ChinazPipeline': 300,
}
5蕉陋、如果要是存儲(chǔ)數(shù)據(jù)庫(kù)就添加以下代碼比如:
MYSQL_HOST = 'localhost'‘
#用戶(hù)
MYSQL_USER = 'root'
#密碼
MYSQL_PWD = 'a123'
#數(shù)據(jù)庫(kù)
MYSQL_DB = 'wangzhandb'
  • (2)item.py:定義要爬取的字段
class ChinazWebItem(scrapy.Item):
    #標(biāo)題
    webName = scrapy.Field()
    #周排名
    weekRank = scrapy.Field()
    #反連接數(shù)
    linkNum = scrapy.Field()
  • (3)爬蟲(chóng)文件.py
#存儲(chǔ)數(shù)據(jù)的容器寺滚,這是在item.py中定義你要爬取的字段
from chinaz.items import ChinazItem,ChinazWebItem
    #修改起始的url (可以指定多個(gè))
    start_urls = ['你要爬取的url']
  #接下來(lái)你只需要爬取你所需要的數(shù)據(jù)了
def req_url():
    獲取到你想要的數(shù)據(jù)屈雄。
    要是獲取到新的url官套,就發(fā)起新的響應(yīng)
    #使用yield函數(shù)
     yield Request(url=parse.urljoin(新的url), meta={參數(shù)},
        callback=你要調(diào)用的函數(shù))


def parse_detail(self,response):
    寫(xiě)你要爬取的數(shù)據(jù)
  • (4)pipelines.py:#在這里做數(shù)據(jù)的過(guò)濾和持久化
  • 注意:在使用管道之前,我們要先激活管道,在settings文件中激活
pipelines.py:設(shè)計(jì)管道存儲(chǔ)爬取內(nèi)容
如果要是存儲(chǔ)數(shù)據(jù)庫(kù)的話就添加下面的代碼

class WangzhanprojectPipeline(object):

    def __init__(self, host, user, pwd, db):
        # 創(chuàng)建mysql連接
        self.client = pymysql.Connect(host, user, pwd, db, charset='utf8')
        # 創(chuàng)建游標(biāo)
        self.cursor = self.client.cursor()

    @classmethod
    def from_crawler(cls, crawler):
        host = crawler.settings['MYSQL_HOST']
        user = crawler.settings['MYSQL_USER']
        pwd = crawler.settings['MYSQL_PWD']
        db = crawler.settings['MYSQL_DB']
        return cls(host, user, pwd, db)


#保存到本地
class ChinazPipeline(object):

    def __init__(self):
        #一般在初始化方法里面創(chuàng)建數(shù)據(jù)庫(kù)連接,或者是文件
        self.file = open('chinaz.json','a+')
        self.webFile = open('chinazweb.json','a+')
在這里面處理引擎?zhèn)鬟^(guò)來(lái)的數(shù)據(jù),進(jìn)行保存
  • (5)middlewaresSpider.py:中間件

三杠氢、各個(gè)py文件之間的關(guān)系

  • (1) Scrapy Engine(引擎): 負(fù)責(zé)Spider另伍、ItemPipeline摆尝、Downloader、Scheduler中間的通訊堕汞,信號(hào)讯检、數(shù)據(jù)傳遞等。
  • (2) Scheduler(調(diào)度器): 它負(fù)責(zé)接受引擎發(fā)送過(guò)來(lái)的Request請(qǐng)求人灼,并按照一定的方式進(jìn)行整理排列投放,入隊(duì),當(dāng)引擎需要時(shí)段磨,交還給引擎耗绿。
  • (3) Downloader(下載器):負(fù)責(zé)下載Scrapy Engine(引擎)發(fā)送的所有Requests請(qǐng)求,并將其獲取到的Responses交還給Scrapy Engine(引擎)债蜜,由引擎交給Spider來(lái)處理究反,
  • (4) Spider(爬蟲(chóng)):它負(fù)責(zé)處理所有Responses,從中分析提取數(shù)據(jù),獲取Item字段需要的數(shù)據(jù)狼速,并將需要跟進(jìn)的URL提交給引擎卦停,再次進(jìn)入Scheduler(調(diào)度器)恼蓬,
  • (5) Item Pipeline(管道):它負(fù)責(zé)處理Spider中獲取到的Item处硬,并進(jìn)行進(jìn)行后期處理(詳細(xì)分析拇派、過(guò)濾、存儲(chǔ)等)的地方.
  • (6) Downloader Middlewares(下載中間件):你可以當(dāng)作是一個(gè)可以自定義擴(kuò)展下載功能的組件疮方。
  • (7) Spider Middlewares(Spider中間件):你可以理解為是一個(gè)可以自定擴(kuò)展和操作引擎和Spider中間通信的功能組件(比如進(jìn)入Spider的Responses;和從Spider出去的Requests)
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末案站,一起剝皮案震驚了整個(gè)濱河市棘街,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌石挂,老刑警劉巖险污,帶你破解...
    沈念sama閱讀 221,273評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件蛔糯,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡动壤,警方通過(guò)查閱死者的電腦和手機(jī)淮逻,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,349評(píng)論 3 398
  • 文/潘曉璐 我一進(jìn)店門(mén)爬早,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人醉旦,你說(shuō)我怎么就攤上這事∷枰郑” “怎么了吨拍?”我有些...
    開(kāi)封第一講書(shū)人閱讀 167,709評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵网杆,是天一觀的道長(zhǎng)碳却。 經(jīng)常有香客問(wèn)我,道長(zhǎng)馍资,這世上最難降的妖魔是什么关噪? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 59,520評(píng)論 1 296
  • 正文 為了忘掉前任使兔,我火速辦了婚禮,結(jié)果婚禮上虐沥,老公的妹妹穿的比我還像新娘熊经。我一直安慰自己,他們只是感情好欲险,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,515評(píng)論 6 397
  • 文/花漫 我一把揭開(kāi)白布镐依。 她就那樣靜靜地躺著,像睡著了一般天试。 火紅的嫁衣襯著肌膚如雪槐壳。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 52,158評(píng)論 1 308
  • 那天秋秤,我揣著相機(jī)與錄音宏粤,去河邊找鬼。 笑死灼卢,一個(gè)胖子當(dāng)著我的面吹牛绍哎,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播鞋真,決...
    沈念sama閱讀 40,755評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了海诲?” 一聲冷哼從身側(cè)響起繁莹,我...
    開(kāi)封第一講書(shū)人閱讀 39,660評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎特幔,沒(méi)想到半個(gè)月后咨演,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 46,203評(píng)論 1 319
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡蚯斯,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,287評(píng)論 3 340
  • 正文 我和宋清朗相戀三年薄风,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片拍嵌。...
    茶點(diǎn)故事閱讀 40,427評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡遭赂,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出横辆,到底是詐尸還是另有隱情撇他,我是刑警寧澤,帶...
    沈念sama閱讀 36,122評(píng)論 5 349
  • 正文 年R本政府宣布狈蚤,位于F島的核電站困肩,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏炫惩。R本人自食惡果不足惜僻弹,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,801評(píng)論 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望他嚷。 院中可真熱鬧蹋绽,春花似錦、人聲如沸筋蓖。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,272評(píng)論 0 23
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)粘咖。三九已至蚣抗,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間瓮下,已是汗流浹背翰铡。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,393評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留讽坏,地道東北人锭魔。 一個(gè)月前我還...
    沈念sama閱讀 48,808評(píng)論 3 376
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像路呜,于是被迫代替她去往敵國(guó)和親迷捧。 傳聞我的和親對(duì)象是個(gè)殘疾皇子织咧,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,440評(píng)論 2 359