Scrapy進(jìn)階-命令行的工作原理(以runspider為例)

官方教程說(shuō)當(dāng)你寫(xiě)好自己的spiders如douban之后粘捎,你可以通過(guò)scrapy runspider/crawl douban啟動(dòng)你的爬蟲(chóng)辆布。于是一開(kāi)始的時(shí)候你就知道通過(guò)這個(gè)命令行來(lái)啟動(dòng)爬蟲(chóng),但是你有沒(méi)有想過(guò)當(dāng)你敲下這行命令后箭阶,scrapy到底做了什么呢虚茶?

命令入口:cmdline.py

當(dāng)你運(yùn)行 scrapy command arg 這樣的命令時(shí),這里的 scrapy 實(shí)質(zhì)是一個(gè) python 腳本,它接受參數(shù)仇参,首先調(diào)用 scrapy/cmdline.py 中的 execute() 函數(shù).

execute() 函數(shù)在 scrapy 安裝目錄下的 cmdline.py 文件中.而cmdline.py定義以下幾個(gè)函數(shù):

iter_command_classes(module_name) 
get_commands_from_module(module, inproject) 
get_commands_from_entry_points(inproject, group='scrapy.commands')
get_commands_dict(settings, inproject)
_pop_command_name(argv)
print_header(settings, inproject)
print_commands(settings, inproject)
print_unknown_command(settings, cmdname, inproject)
run_print_help(parser, func, *a, **kw)
_run_command(cmd, args, opts)
_run_command_profiled(cmd, args, opts)
execute(argv=None, settings=None)

這些函數(shù)顧名思義嘹叫,不做太多介紹。其中最重要的是execute诈乒,為啥呢罩扇?

if __name__ == '__main__':
    execute()

因?yàn)樯厦娲a告訴我們只有它能自啟動(dòng),所以我們要詳盡的了解它怕磨,因此就要讀代碼了喂饥。

def execute(argv=None, settings=None):
# 獲取變量
    if argv is None:
        argv = sys.argv
# 獲取配置(settings)
    if settings is None:
        settings = get_project_settings()
    check_deprecated_settings(settings)

    inproject = inside_project() #判斷是否在項(xiàng)目中,因?yàn)榭捎妹畈煌?    cmds = _get_commands_dict(settings, inproject) #scrapy.commands中獲取命令集
    cmdname = _pop_command_name(argv) #獲取輸入的命令
    parser = optparse.OptionParser(formatter=optparse.TitledHelpFormatter(), \
        conflict_handler='resolve') #獲取附加選項(xiàng)
        # 根據(jù)輸入的指令提供不同的結(jié)果
    if not cmdname:
        _print_commands(settings, inproject)
        sys.exit(0)
    elif cmdname not in cmds:
        _print_unknown_command(settings, cmdname, inproject)
        sys.exit(2)
    # 下面幾行代碼針對(duì)輸入合適的指令如genspider crawl....
    # 解析命令行參數(shù)(cmds:為相應(yīng)的Scrapy Command對(duì)象列表)
    cmd = cmds[cmdname]
    parser.usage = "scrapy %s %s" % (cmdname, cmd.syntax())
    parser.description = cmd.long_desc()
    settings.setdict(cmd.default_settings, priority='command')
    cmd.settings = settings
    cmd.add_options(parser)
    opts, args = parser.parse_args(args=argv[1:])
    _run_print_help(parser, cmd.process_options, args, opts)
    # 設(shè)定用于啟動(dòng)爬取CrawlerProcess的配置
    cmd.crawler_process = CrawlerProcess(settings)
    _run_print_help(parser, _run_command, cmd, args, opts)
    sys.exit(cmd.exitcode)

作為整個(gè)程序的入口肠鲫,其主要做的事情是解析用戶(hù)爬蟲(chóng)的配置屬性员帮,根據(jù)傳遞的命令行參數(shù),調(diào)用對(duì)應(yīng)的代碼來(lái)執(zhí)行相應(yīng)的任務(wù).


scrapy command arg 中 command 可以為 crawl / startproject / genspider / runspider / deploy / …等命令,每一個(gè)命令在 scrapy/commands 文件夾下都有對(duì)應(yīng) command類(lèi).


對(duì)于 scrapy runsspider test ,就會(huì)調(diào)用 commands/runspider.py 中的方法去執(zhí)行相應(yīng)的爬蟲(chóng)任務(wù).

調(diào)度者:runspider.py

runspider.py定義了一個(gè)函數(shù)_import_file從我們的爬蟲(chóng)中查找所有的依賴(lài)包导饲,定義了一個(gè)Command類(lèi)(繼承ScrapyCommand)捞高。
Command中最重要的功能是run,他用spclasses = list(iter_spider_classes(module))判斷輸入的爬蟲(chóng)是否存在氯材。

    self.crawler_process.crawl(spidercls, **opts.spargs)
    self.crawler_process.start()

隨后用crawler_process(即實(shí)例化的CrawlerProcess)調(diào)用crawler.py的CrawlerProcess。crawler是Scrapy核心的API硝岗,所以需要仔細(xì)介紹氢哮。

核心API: crawler.py

事實(shí)上我們并不一定需要通過(guò)命令行的方式運(yùn)行scrapy的爬蟲(chóng),完全可以通過(guò)API從腳本中運(yùn)行Scrapy型檀。CrawlerProcess可以為你自啟動(dòng)一個(gè)Twisted反應(yīng)子冗尤,配置logging信息、設(shè)置腳本關(guān)閉處理程序胀溺,
我們先來(lái)解讀self.crawler_process.crawl(spidercls, **opts.spargs)中的crawl裂七。流程如下

  1. crawler = self.create_crawler(crawler_or_spidercls)

  2. create_crawler return self._create_crawler(crawler_or_spidercls)

  3. _create_crawler return Crawler(spidercls, self.settings)spidercls = self.spider_loader.load(spidercls)

  4. spider_loader = _get_spider_loader(settings)

  5. .... 讀不下去了

  6. CrawlerRunner.crawl return self._crawl(crawler, *args, **kwargs)

  7. _crawl crawler.crawl(*args, **kwargs)

  8. crawler.crawl
    @defer.inlineCallbacks
    def crawl(self, *args, **kwargs):
    assert not self.crawling, "Crawling already taking place"
    self.crawling = True

         try:
             self.spider = self._create_spider(*args, **kwargs)
             self.engine = self._create_engine()
             start_requests = iter(self.spider.start_requests())
             yield self.engine.open_spider(self.spider, start_requests)
             yield defer.maybeDeferred(self.engine.start)
    

本來(lái)我是打算一行一行講解代碼的,但是工作量太大仓坞,也很難表述清楚碍讯,我還是直接說(shuō)明他的作用吧:
用指定的參數(shù)運(yùn)行爬蟲(chóng),最后從spider.start_requests()開(kāi)啟新的征途扯躺。


結(jié)論:
因此當(dāng)我們執(zhí)行scrapy runspider SpiderName的時(shí)候捉兴,Scrapy其實(shí)以以下順序直到啟動(dòng)我們的爬蟲(chóng)。
scrapy/cmdline.py -> scrapy/commands/runspider.py -> scrapy/crawler.py -> 從我們的爬蟲(chóng)的start_requests開(kāi)始下一步录语。


這個(gè)代碼讀的我好暈倍啥,但是至少我知道了start_requests是我們運(yùn)行爬蟲(chóng)的關(guān)鍵。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末澎埠,一起剝皮案震驚了整個(gè)濱河市虽缕,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌蒲稳,老刑警劉巖氮趋,帶你破解...
    沈念sama閱讀 211,561評(píng)論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異江耀,居然都是意外死亡剩胁,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,218評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門(mén)祥国,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)昵观,“玉大人,你說(shuō)我怎么就攤上這事舌稀“∪” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 157,162評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵壁查,是天一觀(guān)的道長(zhǎng)觉至。 經(jīng)常有香客問(wèn)我,道長(zhǎng)睡腿,這世上最難降的妖魔是什么语御? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 56,470評(píng)論 1 283
  • 正文 為了忘掉前任领斥,我火速辦了婚禮,結(jié)果婚禮上沃暗,老公的妹妹穿的比我還像新娘。我一直安慰自己何恶,他們只是感情好孽锥,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,550評(píng)論 6 385
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著细层,像睡著了一般惜辑。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上疫赎,一...
    開(kāi)封第一講書(shū)人閱讀 49,806評(píng)論 1 290
  • 那天盛撑,我揣著相機(jī)與錄音,去河邊找鬼捧搞。 笑死抵卫,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的胎撇。 我是一名探鬼主播介粘,決...
    沈念sama閱讀 38,951評(píng)論 3 407
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼晚树!你這毒婦竟也來(lái)了姻采?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 37,712評(píng)論 0 266
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤爵憎,失蹤者是張志新(化名)和其女友劉穎慨亲,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體宝鼓,經(jīng)...
    沈念sama閱讀 44,166評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡刑棵,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,510評(píng)論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了愚铡。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片铐望。...
    茶點(diǎn)故事閱讀 38,643評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖茂附,靈堂內(nèi)的尸體忽然破棺而出正蛙,到底是詐尸還是另有隱情,我是刑警寧澤营曼,帶...
    沈念sama閱讀 34,306評(píng)論 4 330
  • 正文 年R本政府宣布乒验,位于F島的核電站,受9級(jí)特大地震影響蒂阱,放射性物質(zhì)發(fā)生泄漏锻全。R本人自食惡果不足惜狂塘,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,930評(píng)論 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望鳄厌。 院中可真熱鬧荞胡,春花似錦、人聲如沸了嚎。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,745評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)歪泳。三九已至萝勤,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間呐伞,已是汗流浹背敌卓。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 31,983評(píng)論 1 266
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留伶氢,地道東北人趟径。 一個(gè)月前我還...
    沈念sama閱讀 46,351評(píng)論 2 360
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像癣防,于是被迫代替她去往敵國(guó)和親舵抹。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,509評(píng)論 2 348

推薦閱讀更多精彩內(nèi)容

  • scrapy學(xué)習(xí)筆記(有示例版) 我的博客 scrapy學(xué)習(xí)筆記1.使用scrapy1.1創(chuàng)建工程1.2創(chuàng)建爬蟲(chóng)模...
    陳思煜閱讀 12,670評(píng)論 4 46
  • 引言 在上篇使用Scrapy爬取知乎用戶(hù)信息我們編寫(xiě)了一個(gè)單機(jī)的爬蟲(chóng)劣砍,這篇記錄了使用Scrapy-Redis將其重...
    朱曉飛閱讀 6,684評(píng)論 1 24
  • 寫(xiě)在前面的話(huà)惧蛹,我這個(gè)人虛榮心強(qiáng) 1.scrapy 的安裝 1.scrapy 依賴(lài)的包太多,所以我建議使用anaco...
    不要讓用戶(hù)想昵稱(chēng)閱讀 836評(píng)論 0 3
  • 1.Scrapy的命令行命令 創(chuàng)建一個(gè)Scrapy工程終端輸入: PyCharm 下直接運(yùn)行 ScrapyScra...
    EnjoyWT閱讀 3,130評(píng)論 0 1
  • 抬頭看天 像平靜的水面 青波寧謐 無(wú)漪無(wú)漣 幾片暮云 是靜泊的小船 小船悠悠 乘載著幾多夢(mèng)幻 華燈漸醒 夕陽(yáng)恨晚 ...
    耘心閱讀 145評(píng)論 0 0