一斯议、爬取數(shù)據(jù)
Python版本是3.6莲兢,爬取后保存在MySQL中巩掺,版本是5.5偏序。
51job搜索位置的鏈接是【數(shù)據(jù)分析師招聘,求職】-前程無(wú)憂
首先是可以在ide中運(yùn)行scrapy的文件run.py:
from scrapy.cmdline import execute
execute(['scrapy', 'crawl', 'job51'])
需要爬取并存儲(chǔ)的字段item.py:
import scrapy
class Job51Item(scrapy.Item):
? ? # define the fields for your item here like:
? ? # name = scrapy.Field()
? ? zhiwei = scrapy.Field()
? ? gongsi = scrapy.Field()
? ? didian = scrapy.Field()
? ? xinzi = scrapy.Field()
? ? gongsileixing = scrapy.Field()
? ? guimo = scrapy.Field()
? ? hangye = scrapy.Field()
? ? jingyan = scrapy.Field()
? ? xueli = scrapy.Field()
? ? fuli = scrapy.Field()
? ? zhiweiyaoqiu = scrapy.Field()
? ? lianjie = scrapy.Field()
爬蟲(chóng)的入口 job51.py:
import re
import scrapy
from bs4 import BeautifulSoup
from items import Job51Item
class Myspider(scrapy.Spider):
? ? name = 'job51'
? ? allowed_domains = ['51job.com']
? ? headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}
? ? def start_requests(self):
? ? ? ? for i in range(1, 208):
? ? ? ? ? ? url_1 = 'http://search.51job.com/list/000000,000000,0000,00,9,99,%25E6%2595%25B0%25E6%258D%25AE%25E5%2588%2586%25E6%259E%2590%25E5%25B8%2588,2,'
? ? ? ? ? ? url_2 = '.html?lang=c&stype=1&postchannel=0000&workyear=99&cotype=99°reefrom=99&jobterm=99&companysize=99&lonlat=0%2C0&radius=-1&ord_field=0&confirmdate=9&fromType=1&dibiaoid=0&address=&line=&specialarea=00&from=&welfare='
? ? ? ? ? ? url = url_1 + str(i) + url_2
? ? ? ? ? ? yield scrapy.Request(url, headers=self.headers, callback=self.parse)
#獲取每個(gè)職位的詳細(xì)信息入口url
? ? def parse(self, response):
? ? ? ? soup = BeautifulSoup(response.text, 'lxml')
? ? ? ? tls = soup.find_all('p', class_='t1 ')
? ? ? ? for tl in tls:
? ? ? ? ? ? url = tl.find('a', target='_blank')['href']
? ? ? ? ? ? yield scrapy.Request(url, callback=self.get_content, meta={'url': url})
? ? #用BeautifulSoup爬取詳細(xì)頁(yè)字段
? ? def get_content(self, response):
? ? ? ? soup = BeautifulSoup(response.text, 'lxml')
? ? ? ? item = Job51Item()
? ? ? ? item['zhiwei'] = soup.find('h1').get_text().replace('\xa0', '')
? ? ? ? item['gongsi'] = soup.find('p', class_='cname').find('a', target='_blank').get_text().replace('\xa0', '')
? ? ? ? item['didian'] = soup.find('span', class_='lname').get_text().replace('\xa0', '')
? ? ? ? item['xinzi'] = soup.find('div', class_='cn').find('strong').get_text().replace('\xa0', '')
? ? ? ? gongsixinxi = soup.find('p', class_='msg ltype').get_text().replace('\t', '').replace('\r', '').replace('\n', '').replace('\xa0', '')
? ? ? ? item['gongsileixing'] = gongsixinxi.split('|')[0]
? ? ? ? item['guimo'] = gongsixinxi.split('|')[1]
? ? ? ? item['hangye'] = gongsixinxi.split('|')[2]
? ? ? ? zhaopinyaoqiu = soup.find('div', class_='t1').get_text().replace('\xa0', '')
? ? ? ? item['jingyan'] = zhaopinyaoqiu.split('\n')[1]
? ? ? ? try:
? ? ? ? ? ? item['xueli'] = re.findall(r'(.*?)', response.text)[0]
? ? ? ? except:
? ? ? ? ? ? item['xueli'] = '無(wú)'
? ? ? ? try:
? ? ? ? ? ? item['fuli'] = soup.find('p', class_='t2').get_text().replace('\n', ' ').replace('\xa0', '')
? ? ? ? except:
? ? ? ? ? ? item['fuli'] = '無(wú)'
? ? ? ? item['zhiweiyaoqiu'] =
re.findall(r'< div class="bmsg job_msg inbox">(.*?)<div class="mt10">', response.text, re.I|re.S|re.M)[0].replace('\r', '').replace('\n', '').replace('\t', '').replace('\xa0', '').replace('<br>', '').replace('<br/>', '')
? ? ? ? item['lianjie'] = response.meta['url']
? ? ? ? yield item
SQL部分sql.py:
import pymysql.cursors
import settings
MYSQL_HOSTS = settings.MYSQL_HOSTS
MYSQL_USER = settings.MYSQL_USER
MYSQL_PASSWORD = settings.MYSQL_PASSWORD
MYSQL_PORT = settings.MYSQL_PORT
MYSQL_DB = settings.MYSQL_DB
cnx = pymysql.connect(
? ? host=MYSQL_HOSTS,
? ? port=MYSQL_PORT,
? ? user=MYSQL_USER,
? ? passwd=MYSQL_PASSWORD,
? ? db=MYSQL_DB,
? ? charset='gbk')
cur = cnx.cursor()
class Sql:
? ? @classmethod
? ? def insert_job51(cls, zhiwei, gongsi, didian, xinzi, gongsileixing, guimo, hangye, jingyan, xueli, fuli, zhiweiyaoqiu, lianjie):
? ? ? ? sql = 'INSERT INTO job51(zhiwei,gongsi,didian,xinzi,gongsileixing,guimo,hangye,jingyan,xueli,fuli,zhiweiyaoqiu,lianjie) ' \
? ? ? ? ? ? ? 'VALUES(%(zhiwei)s,%(gongsi)s,%(didian)s,%(xinzi)s,%(gongsileixing)s,%(guimo)s,%(hangye)s,%(jingyan)s,%(xueli)s,%(fuli)s,%(zhiweiyaoqiu)s,%(lianjie)s)'
? ? ? ? value = {'zhiwei': zhiwei,
? ? ? ? ? ? ? ? 'gongsi': gongsi,
? ? ? ? ? ? ? ? 'didian': didian,
? ? ? ? ? ? ? ? 'xinzi': xinzi,
? ? ? ? ? ? ? ? 'gongsileixing': gongsileixing,
? ? ? ? ? ? ? ? 'guimo': guimo,
? ? ? ? ? ? ? ? 'hangye': hangye,
? ? ? ? ? ? ? ? 'jingyan': jingyan,
? ? ? ? ? ? ? ? 'xueli': xueli,
? ? ? ? ? ? ? ? 'fuli': fuli,
? ? ? ? ? ? ? ? 'zhiweiyaoqiu': zhiweiyaoqiu,
? ? ? ? ? ? ? ? 'lianjie': lianjie,}
? ? ? ? cur.execute(sql, value)
? ? ? ? cnx.commit()
管道存儲(chǔ)pipelines.py:
from .sql import Sql
from items import Job51Item
class Job51Pipeline(object):
? ? def process_item(self, item, spider):
? ? ? ? ? ? zhiwei = item['zhiwei']
? ? ? ? ? ? gongsi = item['gongsi']
? ? ? ? ? ? didian = item['didian']
? ? ? ? ? ? xinzi = item['xinzi']
? ? ? ? ? ? gongsileixing = item['gongsileixing']
? ? ? ? ? ? guimo = item['guimo']
? ? ? ? ? ? hangye = item['hangye']
? ? ? ? ? ? jingyan = item['jingyan']
? ? ? ? ? ? xueli = item['xueli']
? ? ? ? ? ? fuli = item['fuli']
? ? ? ? ? ? zhiweiyaoqiu = item['zhiweiyaoqiu']
? ? ? ? ? ? lianjie = item['lianjie']
? ? ? ? ? ? Sql.insert_job51(zhiwei, gongsi, didian, xinzi, gongsileixing, guimo, hangye, jingyan, xueli, fuli, zhiweiyaoqiu, lianjie)
? ? ? ? ? ? print('寫(xiě)入職位信息')
在MySQL中建立新表胖替,包含所有字段:
CREATE TABLE `job51` (
? `id` int(10) NOT NULL AUTO_INCREMENT,
? `zhiwei` varchar(255) DEFAULT NULL,
? `gongsi` varchar(255) DEFAULT NULL,
? `didian` varchar(255) DEFAULT NULL,
? `xinzi` varchar(255) DEFAULT NULL,
? `gongsileixing` varchar(255) DEFAULT NULL,
? `guimo` varchar(255) DEFAULT NULL,
? `hangye` varchar(255) DEFAULT NULL,
? `jingyan` varchar(255) DEFAULT NULL,
? `xueli` varchar(255) DEFAULT NULL,
? `fuli` varchar(255) DEFAULT NULL,
? `zhiweiyaoqiu` text,
? `lianjie` text,
? PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=gbk
配置settings.py:
BOT_NAME = 'job51'
SPIDER_MODULES = ['job51.spiders']
NEWSPIDER_MODULE = 'job51.spiders'
MYSQL_HOSTS = 'localhost'
MYSQL_USER = 'root'
MYSQL_PASSWORD = '123456'
MYSQL_PORT = 3306
MYSQL_DB = 'job51'
ROBOTSTXT_OBEY = True
ITEM_PIPELINES = {
? ? 'job51.pipelines.Job51Pipeline': 300,
}
HTTPCACHE_ENABLED = True
HTTPCACHE_EXPIRATION_SECS = 0
HTTPCACHE_DIR = 'httpcache'
HTTPCACHE_IGNORE_HTTP_CODES = []
HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'
二研儒、數(shù)據(jù)清洗和可視化
一共爬取了9705條職位信息,如圖所示独令。
通過(guò)Excel清洗數(shù)據(jù)后導(dǎo)入Tableau進(jìn)行可視化分析端朵。
1.民營(yíng)公司招聘需求占了近2/3,其次是合資公司
2.150-500人規(guī)模的公司需求最多燃箭,薪資基本隨著公司規(guī)模擴(kuò)大而增加
3.不同行業(yè)的數(shù)據(jù)分析職位平均薪資水平冲呢,集中在9-11K之間
4.北上深杭平均薪資10K左右
5.要求為本科的最多,碩士以上很少招狸,要求不限學(xué)歷的也很可觀
6.1年經(jīng)驗(yàn)的職位薪資略低于應(yīng)屆生敬拓,5年以上經(jīng)驗(yàn)的薪資水平上了一個(gè)臺(tái)階
7.聚類分析
根據(jù)職位特征進(jìn)行聚類分析,大致可以把職位需求分為三種類型:
從薪資上看裙戏,其中第一乘凸、三類屬于高薪職位,平均薪資能夠達(dá)到11K累榜,第三類的薪資水平分布稍穩(wěn)定营勤;第二類平均薪資僅7K左右。
從規(guī)模上看,大型公司提供的待遇更加優(yōu)渥葛作,全部屬于高薪職位醒第;小型公司和中型公司分別有45.5%、40.2%的職位薪資水平較低进鸠。
從經(jīng)驗(yàn)要求來(lái)看稠曼,要求少量經(jīng)驗(yàn)的公司最多,但是56.5%的職位薪資不高客年;而經(jīng)驗(yàn)較豐富的職位都屬于高薪霞幅。
從學(xué)歷要求來(lái)看,無(wú)學(xué)歷要求和屃抗希科集中在第二類司恳,而本科和研究生集中在第一、三類绍傲,可見(jiàn)在數(shù)據(jù)分析職位上學(xué)歷是比較重要的因素扔傅。
8.招聘要求的關(guān)鍵詞詞云
三、總結(jié)
1烫饼、從公司崗位需求來(lái)看猎塞,北上廣深杭是缺口比較大的地區(qū),民營(yíng)公司的需求最大杠纵,規(guī)模越大的公司能開(kāi)出更高的薪資條件來(lái)吸引人才荠耽;
2、從薪資水平來(lái)看比藻,剛?cè)胄行劫Y在7-8K铝量,2年后能夠達(dá)到每2年增加4-5K的發(fā)展水平。北上深杭的平均薪資能達(dá)到10K慢叨,屬于第一梯隊(duì),其次是南京廣州蘇州在8K左右拍谐,福州東莞武漢在7K左右,屬于第二梯隊(duì)请梢;
3、從求職者角度來(lái)看毅弧,高薪職位基本在本科及以上學(xué)歷中分布当窗,需要掌握的技能包括業(yè)務(wù)類如分析能力、表達(dá)能力以及邏輯能力,工具類如Excel梯影、Python、SPSS甲棍、Hadoop等。