(八)Scrapy框架(三) 夫椭?python+scrapy爬蟲(chóng)5小時(shí)入門(mén)

Scrapy框架(三)

CrawlSpider

創(chuàng)建CrawlSpider

命令:
scrapy genspider -t crawl hr.tencent hr.tencent.com
url 就是你想要爬取的網(wǎng)址
注意:分析本地文件是一定要帶上路徑,scrapy shell默認(rèn)當(dāng)作url

Rule
Rule用來(lái)定義CrawlSpider的爬取規(guī)則
參數(shù):
link_extractor  Link Extractor對(duì)象论皆,它定義如何從每個(gè)已爬網(wǎng)頁(yè)面中提取鏈接。
callback  回調(diào)函數(shù)
cb_kwargs  是一個(gè)包含要傳遞給回調(diào)函數(shù)的關(guān)鍵字參數(shù)的dict
follow 它指定是否應(yīng)該從使用此規(guī)則提取的每個(gè)響應(yīng)中跟蹤鏈接猾漫。
process_links  用于過(guò)濾連接的回調(diào)函數(shù)
process_request  用于過(guò)濾請(qǐng)求的額回調(diào)函數(shù)

LinkExtractor
LinkExractor也是scrapy框架定義的一個(gè)類(lèi)它唯一的目的是從web頁(yè)面中提取最終將被跟蹤的額連接点晴。

我們也可定義我們自己的鏈接提取器,只需要提供一個(gè)名為extract_links的方法悯周,它接收Response對(duì)象并返回scrapy.link.Link對(duì)象列表粒督。

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule

class MeishiSpider(CrawlSpider):
    """
    scrapy 爬靜態(tài)的
    CrawlSpider 在多頁(yè)情況下, 已經(jīng)數(shù)據(jù)為純靜態(tài)的情況 用來(lái)爬取全站數(shù)據(jù).
    Spider
    """
    name = 'meishi'
    allowed_domains = ['www.meishij.net']
    start_urls = ['https://www.meishij.net/chufang/diy/?&page=1']

    rules = (
        # allow: 指定正則匹配的唯一標(biāo)準(zhǔn), 不用把正則表達(dá)式寫(xiě)完整, 只要能體現(xiàn)唯一性且在網(wǎng)頁(yè)源代碼中匹配到的數(shù)據(jù)就是目標(biāo)數(shù)據(jù)
        # 這里的page=\d+ 雖然表示不能代表整個(gè)翻頁(yè)的URL, 但是沒(méi)關(guān)系, LinkExtractor會(huì)幫我們找到匹配項(xiàng)并直接獲取其完整URL
        # callback: Rule規(guī)則發(fā)送的后續(xù)請(qǐng)求, 所返回的響應(yīng)應(yīng)該交給誰(shuí)(方法名)來(lái)進(jìn)行處理
        # callback不能寫(xiě)parse, parse會(huì)在CrawlSpider自己調(diào)用.
        # follow: 首先項(xiàng)目開(kāi)始運(yùn)行后, 發(fā)送的第一批請(qǐng)求會(huì)被Rule進(jìn)行規(guī)則檢查, 若在響應(yīng)的數(shù)據(jù)中匹配到相關(guān)URL, 那么就會(huì)跟進(jìn)(發(fā)送)該URL
        # 但是跟進(jìn)的請(qǐng)求也會(huì)有響應(yīng), 響應(yīng)中也可能會(huì)包含符合allow表達(dá)式匹配的URL. 如果想要進(jìn)一步匹配這些URL并跟進(jìn), 就設(shè)置follow=True,
        # 如果不想跟進(jìn)就設(shè)置為False

        # 前面Rule發(fā)送的請(qǐng)求返回的響應(yīng), 會(huì)被下面的Rule也就進(jìn)行匹配, 所以若你Rule設(shè)置太多. 邏輯復(fù)雜容易出問(wèn)題
        # 1. 該Rule是匹配響應(yīng)中的頁(yè)碼URL, 匹配到了就跟進(jìn)請(qǐng)求, 若跟進(jìn)的響應(yīng)中也包含了頁(yè)碼URL, 那么就再跟進(jìn)(重復(fù)的URL會(huì)自動(dòng)去重)
        # 直到?jīng)]有匹配新的URL為止
        Rule(LinkExtractor(allow=r'page=\d+'), callback='parse_item', follow=True),
        # 2. 該Rule是匹配每一頁(yè)菜品的詳情URL, 匹配到就跟進(jìn), 跟進(jìn)返回的響應(yīng)交給parse_detail
        Rule(LinkExtractor(allow=r'zuofa/'), callback='parse_detail', follow=False),
    )

    def parse_item(self, response):
        """
        獲取每頁(yè)的菜品基本信息
        :param response:
        :return:
        """
        # PameishiItem 該類(lèi)描述的目標(biāo)字段是菜品基本信息
        item = PameishiItem()
        node_list = response.xpath("http://div[@class='listtyle1']")

        for node in node_list:
            item["title"] = node.xpath("./a/@title").extract_first()
            item["title_url"] = node.xpath("./a/@href").extract_first()
            item["title_img_url"] = node.xpath("./a/img/@src").extract_first()
            item["use_time"] = node.xpath(".//ul/li[1]/text()").extract_first()
            item["pattern_flavor"] = node.xpath(".//ul/li[2]/text()").extract_first()

            yield item

案例實(shí)踐

piplines文件

1560431483911.png
1560431511676.png

CrawlSpider頁(yè)面去重

1560431542255.png

scrapy去重機(jī)制

1560431570470.png
總結(jié):
scrapy只會(huì)將請(qǐng)求報(bào)文完全相同的對(duì)象視為相同請(qǐng)求.
對(duì)這樣的相同請(qǐng)求對(duì)象進(jìn)行過(guò)濾, 過(guò)濾原理大致為: 將請(qǐng)求的對(duì)象的相關(guān)信息, 如url, headers, 參數(shù)數(shù)據(jù)等.
通過(guò)單向加密加密成等長(zhǎng)數(shù)據(jù), 然后對(duì)加密后的數(shù)據(jù)進(jìn)行對(duì)比, 來(lái)實(shí)現(xiàn)去重.
1560431603728.png

作業(yè)

1.使用CrawlSpider實(shí)現(xiàn)爬取美食網(wǎng)站上的相關(guān)信息,并導(dǎo)出為兩個(gè)json數(shù)據(jù)文件, 分為基本信息json, 詳情信息json.
要求:運(yùn)行成功為前提禽翼,只要spider代碼的截圖和兩個(gè)文件部分信息截圖
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末屠橄,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子闰挡,更是在濱河造成了極大的恐慌锐墙,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,755評(píng)論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件长酗,死亡現(xiàn)場(chǎng)離奇詭異溪北,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)夺脾,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,305評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門(mén)之拨,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人咧叭,你說(shuō)我怎么就攤上這事蚀乔。” “怎么了菲茬?”我有些...
    開(kāi)封第一講書(shū)人閱讀 165,138評(píng)論 0 355
  • 文/不壞的土叔 我叫張陵吉挣,是天一觀的道長(zhǎng)派撕。 經(jīng)常有香客問(wèn)我,道長(zhǎng)听想,這世上最難降的妖魔是什么腥刹? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,791評(píng)論 1 295
  • 正文 為了忘掉前任,我火速辦了婚禮汉买,結(jié)果婚禮上衔峰,老公的妹妹穿的比我還像新娘。我一直安慰自己蛙粘,他們只是感情好垫卤,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,794評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著出牧,像睡著了一般穴肘。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上舔痕,一...
    開(kāi)封第一講書(shū)人閱讀 51,631評(píng)論 1 305
  • 那天评抚,我揣著相機(jī)與錄音,去河邊找鬼伯复。 笑死慨代,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的啸如。 我是一名探鬼主播侍匙,決...
    沈念sama閱讀 40,362評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼叮雳!你這毒婦竟也來(lái)了想暗?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 39,264評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤帘不,失蹤者是張志新(化名)和其女友劉穎说莫,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體寞焙,經(jīng)...
    沈念sama閱讀 45,724評(píng)論 1 315
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡唬滑,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,900評(píng)論 3 336
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了棺弊。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片晶密。...
    茶點(diǎn)故事閱讀 40,040評(píng)論 1 350
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖模她,靈堂內(nèi)的尸體忽然破棺而出稻艰,到底是詐尸還是另有隱情,我是刑警寧澤侈净,帶...
    沈念sama閱讀 35,742評(píng)論 5 346
  • 正文 年R本政府宣布尊勿,位于F島的核電站僧凤,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏元扔。R本人自食惡果不足惜躯保,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,364評(píng)論 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望澎语。 院中可真熱鬧途事,春花似錦、人聲如沸擅羞。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,944評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)减俏。三九已至召烂,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間娃承,已是汗流浹背奏夫。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,060評(píng)論 1 270
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留历筝,地道東北人酗昼。 一個(gè)月前我還...
    沈念sama閱讀 48,247評(píng)論 3 371
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像漫谷,于是被迫代替她去往敵國(guó)和親仔雷。 傳聞我的和親對(duì)象是個(gè)殘疾皇子蹂析,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,979評(píng)論 2 355