基于scrapy框架的關(guān)于58同城招聘網(wǎng)站信息的爬取(一)

起因:學(xué)校項(xiàng)目實(shí)訓(xùn)盖高,要求我們爬取招聘網(wǎng)站信息并對(duì)其進(jìn)行分析声滥,在此我和大家分享一下關(guān)于我爬取58同城招聘網(wǎng)站信息的過(guò)程和結(jié)果~

前期準(zhǔn)備步驟:

1.搭建環(huán)境:首先把scrapy需要的環(huán)境搭建好胆胰,再次我就不贅述了感昼,這個(gè)去百度坛悉,有很多的教程,可能有些不夠全面不夠準(zhǔn)確台颠,反正多看看褐望,先把環(huán)境搭建好,我是在windows7下進(jìn)行的安裝蓉媳。

2.環(huán)境搭建好后,學(xué)習(xí)scrapy框架的結(jié)構(gòu)以及運(yùn)行流程锅铅,具體網(wǎng)上也有很多介紹酪呻,我也不贅述了,提一點(diǎn)百度百科的解釋盐须,scrapy:Scrapy玩荠,Python開發(fā)的一個(gè)快速,高層次的屏幕抓取和web抓取框架,用于抓取web站點(diǎn)并從頁(yè)面中提取結(jié)構(gòu)化的數(shù)據(jù)贼邓。Scrapy用途廣泛阶冈,可以用于數(shù)據(jù)挖掘、監(jiān)測(cè)和自動(dòng)化測(cè)試塑径。

這個(gè)關(guān)于scrapy的中文的網(wǎng)站點(diǎn)擊打開鏈接女坑,大家可以學(xué)習(xí)學(xué)習(xí),這項(xiàng)目统舀,我也就學(xué)習(xí)了前面的幾點(diǎn)知識(shí)匆骗。

代碼編寫過(guò)程:

1.在cmd中新建一個(gè)新項(xiàng)目。

scrapy startproject tc (58同城的縮寫誉简,項(xiàng)目名稱)

2.對(duì)于該項(xiàng)目的items類進(jìn)行編寫:

# -*- coding: utf-8 -*-

# Define here the models for your scraped items

#

# See documentation in:

# http://doc.scrapy.org/en/latest/topics/items.html

import scrapy

class TcItem(scrapy.Item):

# define the fields for your item here like:

name = scrapy.Field()? #招聘職位名稱

Cpname = scrapy.Field() #公司名稱

pay? = scrapy.Field()? #薪資待遇

edu? = scrapy.Field()? #學(xué)歷要求

num? = scrapy.Field()? #招聘人數(shù)

year = scrapy.Field()? #工作年限

FL? = scrapy.Field()? #福利待遇

以上是我給想爬取的數(shù)據(jù)定義的屬性

3.在spiders中新建了一個(gè)tc_spider.py,一下是tc_spider.py的代碼:

# -*- coding: utf-8 -*-

import scrapy

from tc.items import TcItem

from scrapy.selector import HtmlXPathSelector,Selector

from scrapy.http import Request

class TcSpider(scrapy.Spider):

name='tc'

allowed_domains=['jn.58.com']

start_urls=[

"http://jn.58.com/tech/pn1/?utm_source=market&spm=b-31580022738699-me-f-824.bdpz_biaoti&PGTID=0d303655-0010-915b-ca53-cb17de8b2ef6&ClickID=3"

]

theurl="http://jn.58.com/tech/pn"

theurl2="/?utm_source=market&spm=b-31580022738699-me-f-824.bdpz_biaoti&PGTID=0d303655-0010-915b-ca53-cb17de8b2ef6&ClickID=3"

for i in range(75):

n=i+2

the_url=theurl+str(n)+theurl2

start_urls.append(the_url)

def start_request(self,response):

sel = Selector(response)

sites = sel.xpath("http://*[@id='infolist']/dl")

#items = []

for site in sites:

#item = DmozItem()

#item['namee'] = site.xpath('dt/a/text()').extract()

href = site.xpath('dt/a/@href').extract()

self.start_urls.append(href)

#item['company'] = site.xpath('dd/a/@title').extract()

#if site!= " " :

#? items.append(item)

for url in self.start_urls:

yield self.make_requests_from_url()

def parse_item(self, response):

items2 = []

item=TcItem()

item['name']=response.xpath("http://*[@class='headConLeft']/h1/text()").extract()

item['Cpname']=response.xpath("http://*[@class='company']/a/text()").extract()

item['pay']=response.xpath(("http://*[@class='salaNum']/strong/text()")).extract()

item['edu']=response.xpath("http://*[@class='xq']/ul/li[1]/div[2]/text()").extract()

item['num']=response.xpath("http://*[@class='xq']/ul/li[2]/div[1]/text()").extract()

item['year']=response.xpath("http://*[@class='xq']/ul/li[2]/div[2]/text()").extract()

item['FL']=response.xpath("http://*[@class='cbSum']/span/text()").extract()

dec=item['num']

items2.append(item)

return items2

def parse(self, response):

sel = HtmlXPathSelector(response)

href = sel.select("http://*[@id='infolist']/dl/dt/a/@href").extract()

for he in href:

yield Request (he,callback=self.parse_item)

# 翻頁(yè)

#? ? next_page=response.xpath("http://*[@class='nextMsg']/a/@href")

#? if next_page:

#? url=response.urljoin(next_page[0].extract())

#? ? yield scrapy.Request(url,self.parse)

這段代碼大體四個(gè)部分:①定義爬取的網(wǎng)站以及范圍②每個(gè)屬性的xpath的編寫③對(duì)于每個(gè)職位的鏈接爬取的循環(huán)(能實(shí)現(xiàn)進(jìn)去爬取靜態(tài)的信息)④連續(xù)爬取碉就,網(wǎng)頁(yè)的循環(huán)

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市闷串,隨后出現(xiàn)的幾起案子瓮钥,更是在濱河造成了極大的恐慌,老刑警劉巖烹吵,帶你破解...
    沈念sama閱讀 217,734評(píng)論 6 505
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件碉熄,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡肋拔,警方通過(guò)查閱死者的電腦和手機(jī)具被,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,931評(píng)論 3 394
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)只损,“玉大人一姿,你說(shuō)我怎么就攤上這事七咧。” “怎么了叮叹?”我有些...
    開封第一講書人閱讀 164,133評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵艾栋,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我蛉顽,道長(zhǎng)蝗砾,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,532評(píng)論 1 293
  • 正文 為了忘掉前任携冤,我火速辦了婚禮悼粮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘曾棕。我一直安慰自己扣猫,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,585評(píng)論 6 392
  • 文/花漫 我一把揭開白布翘地。 她就那樣靜靜地躺著申尤,像睡著了一般。 火紅的嫁衣襯著肌膚如雪衙耕。 梳的紋絲不亂的頭發(fā)上昧穿,一...
    開封第一講書人閱讀 51,462評(píng)論 1 302
  • 那天,我揣著相機(jī)與錄音橙喘,去河邊找鬼时鸵。 笑死,一個(gè)胖子當(dāng)著我的面吹牛厅瞎,可吹牛的內(nèi)容都是我干的寥枝。 我是一名探鬼主播,決...
    沈念sama閱讀 40,262評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼磁奖,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼囊拜!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起比搭,我...
    開封第一講書人閱讀 39,153評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤蓄氧,失蹤者是張志新(化名)和其女友劉穎姆泻,沒(méi)想到半個(gè)月后飒赃,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體禾酱,經(jīng)...
    沈念sama閱讀 45,587評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,792評(píng)論 3 336
  • 正文 我和宋清朗相戀三年霉赡,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了橄务。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,919評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡穴亏,死狀恐怖蜂挪,靈堂內(nèi)的尸體忽然破棺而出重挑,到底是詐尸還是另有隱情,我是刑警寧澤棠涮,帶...
    沈念sama閱讀 35,635評(píng)論 5 345
  • 正文 年R本政府宣布谬哀,位于F島的核電站,受9級(jí)特大地震影響严肪,放射性物質(zhì)發(fā)生泄漏史煎。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,237評(píng)論 3 329
  • 文/蒙蒙 一驳糯、第九天 我趴在偏房一處隱蔽的房頂上張望篇梭。 院中可真熱鬧,春花似錦酝枢、人聲如沸恬偷。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,855評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)喉磁。三九已至谓苟,卻和暖如春官脓,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背涝焙。 一陣腳步聲響...
    開封第一講書人閱讀 32,983評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工卑笨, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人仑撞。 一個(gè)月前我還...
    沈念sama閱讀 48,048評(píng)論 3 370
  • 正文 我出身青樓赤兴,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親隧哮。 傳聞我的和親對(duì)象是個(gè)殘疾皇子桶良,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,864評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容