從零開(kāi)始實(shí)現(xiàn)scrapy爬取智聯(lián)招聘的崗位信息-3

根據(jù)我們對(duì)當(dāng)個(gè)招聘崗位的分析,我們發(fā)現(xiàn)我們需要爬取的數(shù)據(jù)主要有八個(gè)冠王,分別是:職位月薪赶撰、工作地點(diǎn)、發(fā)布日期柱彻、工作性質(zhì)豪娜、工作經(jīng)驗(yàn)、最低學(xué)歷哟楷、招聘人數(shù)瘤载、職位類(lèi)別。
所以我們首先在Items.py中定義我們要抓取的數(shù)據(jù)卖擅,如下所示:

import scrapy
class NewoneItem(scrapy.Item):
    # define the fields for your item here like:
    #myurl = scrapy.Field()
    salary = scrapy.Field()
    position = scrapy.Field()
    time = scrapy.Field()
    xingzhi = scrapy.Field()
    experience = scrapy.Field()
    education = scrapy.Field()
    number = scrapy.Field()   
    leibie = scrapy.Field()
    #pass

數(shù)據(jù)類(lèi)型定義好之后鸣奔,我們開(kāi)始編寫(xiě)爬蟲(chóng)的主體部分,打開(kāi)my_spider.py惩阶,其中已經(jīng)自動(dòng)為我們生成了不少代碼挎狸,其中包括def parse(self,response):方法。由于我們要抓取多頁(yè)頁(yè)面断楷,因此我們?cè)谧远x一個(gè)def parse_item(self,response):方法锨匆。這樣,我們使用def parse_item(self,response):來(lái)抓取某一具體頁(yè)面的內(nèi)容冬筒,然后使用def parse(self,response):方法來(lái)循環(huán)調(diào)用def parse_item(self,response):恐锣。
(1)首先我們編寫(xiě)def parse_item(self,response):方法:
其中theitem 用來(lái)存儲(chǔ)抓取的數(shù)據(jù)并返回,a1定位到了class="terminalpage-left"的div,然后根據(jù)我們對(duì)網(wǎng)頁(yè)的分析舞痰,提取出具體數(shù)據(jù)到item中土榴,并存到theitem返回。這里大量用到了xpath,不會(huì)的同學(xué)可以從這個(gè)網(wǎng)站簡(jiǎn)單學(xué)習(xí)一下:http://www.w3school.com.cn/xpath/xpath_syntax.asp

 #爬取具體的內(nèi)容
    def parse_item(self,response):
        theitems =[]
        item = NewoneItem()
        a1 = response.xpath('//div[@class="terminalpage-left"]')
#為了處理掉出現(xiàn)的空格匀奏,salary特殊處理
        temp1 = a1.xpath('./ul/li[1]/strong/text()').extract()[0]
        temp2 = ''
        for te in temp1:
            te = te.strip()
            if te!="":
                temp2 = temp2+te
        item['salary'] = temp2
        item['position'] = a1.xpath('./ul/li[2]/strong/a/text()').extract()
        item['time'] = a1.xpath('./ul/li[3]/strong/span/text()').extract()
        item['xingzhi'] = a1.xpath('./ul/li[4]/strong/text()').extract()
        item['experience'] = a1.xpath('./ul/li[5]/strong/text()').extract()
        item['education'] = a1.xpath('./ul/li[6]/strong/text()').extract()
        item['number'] = a1.xpath('./ul/li[7]/strong/text()').extract()
        item['leibie'] = a1.xpath('./ul/li[8]/strong/a/text()').extract()
        theitems.append(item)
        
        return theitems

(2)然后在def parse_item(self,response):循環(huán)調(diào)用上述方法鞭衩。需要注意的是学搜,我們需要給出start_urls,鏈接地址即為搜索結(jié)果地址论衍。href中是我們從網(wǎng)頁(yè)中找到本頁(yè)所有的工作鏈接地址瑞佩。因此我們使用一個(gè)for循環(huán)來(lái)遍歷這些地址,使用yield scrapy.Request(he,callback = self.parse_item)打開(kāi)這個(gè)地址坯台,并調(diào)用我們編寫(xiě)的self.parse_item方法炬丸,提取當(dāng)前這個(gè)崗位的信息,如此循環(huán)直到本頁(yè)面中所有的鏈接都被爬取過(guò)蜒蕾。爬取完當(dāng)前這一頁(yè)的內(nèi)容之后稠炬,我們需要轉(zhuǎn)到下一頁(yè),我們注意到下一頁(yè)的鏈接地址是在頁(yè)面的下一頁(yè)按鈕中咪啡,因此下一頁(yè)的地址就是thenexthref= response.xpath('//div[@class="newl'+'ist_wrap fl"]/div[@class="pages'+'Down"]/ul/li[@class="pagesDow'+'n-pos"]/a/@href').extract()首启,大家可以自行嘗試分析一下,找到下一頁(yè)地址后撤摸,我們將地址加到start_urls中毅桃,這樣又可以繼續(xù)抓取。

# -*- coding: utf-8 -*-
import scrapy
from newone.items import NewoneItem

class MySpiderSpider(scrapy.Spider):
    name = "my_spider"
    allowed_domains = ["zhaopin.com"]
    start_urls = ["https://sou.zhaopin.com/jobs/searchresult.ashx?jl=538&kw=it&sm=0&p=1"]
    
    #得到URL准夷。循環(huán)爬取
    def parse(self, response):
            href = response.xpath('//td[@class="zwmc"]/div/a[1]/@href').extract()
            for he in href:
                yield scrapy.Request(he,callback = self.parse_item)
                
            #爬取下一頁(yè)
            thenexthref= response.xpath('//div[@class="newl'+'ist_wrap fl"]/div[@class="pages'+'Down"]/ul/li[@class="pagesDow'+'n-pos"]/a/@href').extract()
            
            self.start_urls.append(thenexthref)
            if thenexthref:
                thenexthref=thenexthref[0]
                yield scrapy.Request(thenexthref,callback=self.parse)

如果我們需要保存抓取的數(shù)據(jù)钥飞,我們首先要進(jìn)行相關(guān)設(shè)置, 在setting.py中將下面的代碼取消注釋衫嵌。

# Configure item pipelines
# See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html
ITEM_PIPELINES = {
    'newone.pipelines.NewonePipeline': 300,
}

然后在piplines.py中編寫(xiě)保存數(shù)據(jù)的代碼读宙,我們將數(shù)據(jù)保存為json格式,命名為news楔绞,如下所示:

import codecs
import json
import os

class NewonePipeline(object):
    def process_item(self, item, spider):
        base_dir = os.getcwd()
        filename = base_dir + '/news.json'
        with codecs.open(filename, 'a') as f:
            line = json.dumps(dict(item), ensure_ascii=False) + '\n'
            f.write(line)
        return item

做好這些后结闸,我們就可以執(zhí)行爬蟲(chóng)爬取命令了,在Anaconda Prompt進(jìn)入你項(xiàng)目的目錄酒朵,然后執(zhí)行
scrapy crawl my_spider命令膀估,就可以看到數(shù)據(jù)的爬取過(guò)程,最終數(shù)據(jù)存到news.json文件中耻讽,如下圖所示:

333.png

本文參考了lucky_yang_的博客;另外本文代碼地址:鏈接: https://pan.baidu.com/s/1jn1aloADaqoH2Ra5343SHQ 密碼: 55bc

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末帕棉,一起剝皮案震驚了整個(gè)濱河市针肥,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌香伴,老刑警劉巖慰枕,帶你破解...
    沈念sama閱讀 219,110評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異即纲,居然都是意外死亡具帮,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,443評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)蜂厅,“玉大人匪凡,你說(shuō)我怎么就攤上這事【蛟常” “怎么了病游?”我有些...
    開(kāi)封第一講書(shū)人閱讀 165,474評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)稠通。 經(jīng)常有香客問(wèn)我衬衬,道長(zhǎng),這世上最難降的妖魔是什么改橘? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,881評(píng)論 1 295
  • 正文 為了忘掉前任滋尉,我火速辦了婚禮,結(jié)果婚禮上飞主,老公的妹妹穿的比我還像新娘狮惜。我一直安慰自己,他們只是感情好既棺,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,902評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布讽挟。 她就那樣靜靜地躺著,像睡著了一般丸冕。 火紅的嫁衣襯著肌膚如雪耽梅。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 51,698評(píng)論 1 305
  • 那天胖烛,我揣著相機(jī)與錄音眼姐,去河邊找鬼。 笑死佩番,一個(gè)胖子當(dāng)著我的面吹牛众旗,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播趟畏,決...
    沈念sama閱讀 40,418評(píng)論 3 419
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼贡歧,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了赋秀?” 一聲冷哼從身側(cè)響起利朵,我...
    開(kāi)封第一講書(shū)人閱讀 39,332評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎猎莲,沒(méi)想到半個(gè)月后绍弟,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,796評(píng)論 1 316
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡著洼,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,968評(píng)論 3 337
  • 正文 我和宋清朗相戀三年樟遣,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了而叼。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,110評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡豹悬,死狀恐怖葵陵,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情屿衅,我是刑警寧澤埃难,帶...
    沈念sama閱讀 35,792評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站涤久,受9級(jí)特大地震影響涡尘,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜响迂,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,455評(píng)論 3 331
  • 文/蒙蒙 一考抄、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧蔗彤,春花似錦川梅、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,003評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至待侵,卻和暖如春丢早,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背秧倾。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,130評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工怨酝, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人那先。 一個(gè)月前我還...
    沈念sama閱讀 48,348評(píng)論 3 373
  • 正文 我出身青樓农猬,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親售淡。 傳聞我的和親對(duì)象是個(gè)殘疾皇子斤葱,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,047評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容