Scrapy實(shí)例:爬取office官方模板

分析網(wǎng)頁(yè)

分析爬取網(wǎng)頁(yè)

office官網(wǎng)提供了大量的Word脸狸、Excel最仑、PowerPoint等模板信息。

該實(shí)例使用Scrapy爬蟲(chóng)架構(gòu)炊甲,爬取該網(wǎng)站所有的模板文件泥彤。

https://templates.office.com/

進(jìn)入網(wǎng)頁(yè)

按F12??

開(kāi)始分析網(wǎng)頁(yè)源碼

該網(wǎng)站模板信息眾多,每個(gè)模板都有一條分類(lèi)信息


圖1

通過(guò)這些分類(lèi)標(biāo)簽獲取該站所有模板信息


圖2

通過(guò)審查元素我們發(fā)現(xiàn)分類(lèi)標(biāo)簽存在于

'''

<div class="odcom-template-categories-pane>

'''

每個(gè)分類(lèi)標(biāo)簽在

'''

<p class="c-subheading-4">

'''

進(jìn)去其中業(yè)務(wù)這個(gè)標(biāo)簽

https://templates.office.com/zh-CN/%E4%B8%9A%E5%8A%A1


圖3

通過(guò)審查元素找到模板詳情頁(yè)鏈接


圖4

獲取下一頁(yè)鏈接地址


圖5

進(jìn)入模板詳情頁(yè)

我們可以獲取其分類(lèi)信息卿啡、名稱(chēng)吟吝、描述、APP颈娜、下載地址剑逃,預(yù)覽圖。

通過(guò)分類(lèi)標(biāo)簽->分類(lèi)詳情->模板詳情爬取全站的模板信息官辽。

編寫(xiě)爬蟲(chóng)

新建項(xiàng)目

打開(kāi)cmd 進(jìn)入項(xiàng)目目錄

輸入?scrapy startproject office


圖6

回車(chē) scrapy提示我們

You can start your first spider with:

? ? cd office

? ? scrapy genspider example example.com

打開(kāi)項(xiàng)目文檔->新建一個(gè)爬蟲(chóng)

我們接著輸入

cd office

scrapy genspider templates https://templates.office.com/


圖7

我們使用pycharm 打開(kāi)項(xiàng)目文件


圖8

進(jìn)入templates.py

該文件用來(lái)編寫(xiě)項(xiàng)目中的爬蟲(chóng)程序

'''

# -*- coding: utf-8 -*-

import scrapy

from office.itemsimport OfficeItem

class TemplatesSpider(scrapy.Spider):

name ='templates'

? ? start_urls = ['http://templates.office.com/?omkt=zh-CN/']

URLBASE ="https://templates.office.com"

? ? category =''

? ? def parse(self, response):

#category_url = response.css(".odcom-template-category-link").extract()

? ? ? ? for urlsin response.css(".odcom-template-category-link::attr(href)").extract():

self.category = urls

print(urls)

yield scrapy.Request(self.URLBASE+urls, callback=self.parse_category)

def parse_category(self, response):

for urlsin response.css(".odcom-template-item-anchor::attr(href)").extract():

yield scrapy.Request(self.URLBASE+urls, callback=self.parse_dell)

if response.css(".f-hide a::attr(data-bi-name)").extract_first() !="下一頁(yè)":

page_url = response.css(".m-pagination li")[-1].css("::attr(href)").extract()[0]

scrapy.Request(self.category+page_url, callback=self.parse_category)

def parse_dell(self, response):

items = OfficeItem()

items["category"] = response.css(".c-hyperlink::text").extract()[1]

items["filename"] = response.css("#breadcrumbLine::text").extract()[0]

items["description"] = response.css("#tempDescription::text").extract()[0]

items["app"] = response.css(".odcom-core-app-label::text").extract()[0]

items["down_url"] = response.css(".odcom-template-details-action-buttons a::attr(href)").extract()[0]

items["img"] = response.css(".odcom-template-details-preview-thumbnail::attr(src)").extract()[0]

yield items

'''

items.py

'''

import scrapy

class OfficeItem(scrapy.Item):

# define the fields for your item here like:

# name = scrapy.Field()

? ? category = scrapy.Field()

filename = scrapy.Field()

description = scrapy.Field()

app = scrapy.Field()

down_url = scrapy.Field()

img = scrapy.Field()

'''

程序開(kāi)始會(huì)從

'''

start_urls = ['http://templates.office.com/?omkt=zh-CN/']內(nèi)的網(wǎng)站蛹磺,請(qǐng)求該網(wǎng)頁(yè),之后調(diào)用parse函數(shù)處理

'''

在parse中

'''

response.css(".odcom-template-category-link::attr(href)").extract()

'''

通過(guò)CCS選擇器 獲取每個(gè)分類(lèi)標(biāo)簽詳情頁(yè)的鏈接地址

'''

yield scrapy.Request(self.URLBASE+urls, callback=self.parse_category)

'''

請(qǐng)求每個(gè)分類(lèi)標(biāo)簽詳情頁(yè)地址通過(guò)回調(diào)函數(shù)parse_category 處理請(qǐng)求的數(shù)據(jù)

在parse_category中

'''

response.css(".odcom-template-item-anchor::attr(href)").extract()

'''

獲取頁(yè)面中模板詳情頁(yè)的鏈接地址

之后

'''

yield scrapy.Request(self.URLBASE+urls, callback=self.parse_dell)

'''

請(qǐng)求鏈接地址 調(diào)用parse_dell處理

下面的if 語(yǔ)句 判斷是否是最后一頁(yè)

如果 不是 則請(qǐng)求新一頁(yè) 并回調(diào)自己


parse_dell

用來(lái)存在下載地址同仆、描述等信息

items.py

相當(dāng)于建立一個(gè)字典結(jié)構(gòu)

最后我們?cè)赾md中輸入

scrapy crawl??templates -o 1.json

運(yùn)行爬蟲(chóng)

結(jié)果將存儲(chǔ)在當(dāng)前目前下的1.josn中


?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末萤捆,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子俗批,更是在濱河造成了極大的恐慌鳖轰,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,490評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件扶镀,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡焰轻,警方通過(guò)查閱死者的電腦和手機(jī)臭觉,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,581評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)辱志,“玉大人蝠筑,你說(shuō)我怎么就攤上這事】粒” “怎么了什乙?”我有些...
    開(kāi)封第一講書(shū)人閱讀 165,830評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)已球。 經(jīng)常有香客問(wèn)我臣镣,道長(zhǎng)辅愿,這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,957評(píng)論 1 295
  • 正文 為了忘掉前任忆某,我火速辦了婚禮点待,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘弃舒。我一直安慰自己癞埠,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,974評(píng)論 6 393
  • 文/花漫 我一把揭開(kāi)白布聋呢。 她就那樣靜靜地躺著苗踪,像睡著了一般。 火紅的嫁衣襯著肌膚如雪削锰。 梳的紋絲不亂的頭發(fā)上通铲,一...
    開(kāi)封第一講書(shū)人閱讀 51,754評(píng)論 1 307
  • 那天,我揣著相機(jī)與錄音喂窟,去河邊找鬼测暗。 笑死,一個(gè)胖子當(dāng)著我的面吹牛磨澡,可吹牛的內(nèi)容都是我干的碗啄。 我是一名探鬼主播,決...
    沈念sama閱讀 40,464評(píng)論 3 420
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼稳摄,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼稚字!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起厦酬,我...
    開(kāi)封第一講書(shū)人閱讀 39,357評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤胆描,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后仗阅,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體昌讲,經(jīng)...
    沈念sama閱讀 45,847評(píng)論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,995評(píng)論 3 338
  • 正文 我和宋清朗相戀三年减噪,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了短绸。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,137評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡筹裕,死狀恐怖醋闭,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情朝卒,我是刑警寧澤证逻,帶...
    沈念sama閱讀 35,819評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站抗斤,受9級(jí)特大地震影響囚企,放射性物質(zhì)發(fā)生泄漏丈咐。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,482評(píng)論 3 331
  • 文/蒙蒙 一洞拨、第九天 我趴在偏房一處隱蔽的房頂上張望扯罐。 院中可真熱鬧,春花似錦烦衣、人聲如沸歹河。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,023評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)秸歧。三九已至,卻和暖如春衅澈,著一層夾襖步出監(jiān)牢的瞬間键菱,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,149評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工今布, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留经备,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,409評(píng)論 3 373
  • 正文 我出身青樓部默,卻偏偏與公主長(zhǎng)得像侵蒙,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子傅蹂,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,086評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容

  • scrapy學(xué)習(xí)筆記(有示例版) 我的博客 scrapy學(xué)習(xí)筆記1.使用scrapy1.1創(chuàng)建工程1.2創(chuàng)建爬蟲(chóng)模...
    陳思煜閱讀 12,705評(píng)論 4 46
  • 1.Scrapy的命令行命令 創(chuàng)建一個(gè)Scrapy工程終端輸入: PyCharm 下直接運(yùn)行 ScrapyScra...
    EnjoyWT閱讀 3,135評(píng)論 0 1
  • 時(shí)間安排方面 原則:大塊時(shí)間分解來(lái)用纷闺,小塊時(shí)間預(yù)先安排好來(lái)用 1個(gè)小時(shí)以上算是大塊時(shí)間,可以按半個(gè)小時(shí)來(lái)進(jìn)行拆分 ...
    安鑫鑫森閱讀 290評(píng)論 0 0
  • 你好份蝴,謝謝點(diǎn)開(kāi)這篇文章的你 最近我有點(diǎn)不開(kāi)心犁功。準(zhǔn)確來(lái)說(shuō)是4.16那天 原因是我爸,好友刪了我婚夫,家群也退出去了 多么...
    不要垃圾閱讀 373評(píng)論 14 8
  • 易文澤VS天楚看到某個(gè)論壇里案糙,很多讀者想不清楚易文澤對(duì)天楚到底有沒(méi)有愛(ài)情镐躲,畢竟,這不是一句心軟或者人好就能解釋清楚...
    信時(shí)光閱讀 6,605評(píng)論 0 0