Boss直聘網(wǎng)爬蟲

GitHub鏈接:
BossSpider

值得體味的幾個點:

  • 可以使用json獲得列表中的職位detail數(shù)據(jù)
  • 創(chuàng)建類可以更好的攜帶proxy畔规、headers等屬性
  • 使用代理避開IP封鎖和驗證碼
  • 理清楚邏輯很重要祟敛,對于異常處理
import time
import requests
from requests import Session
from http import client
import re
from lxml import etree
import json
import random


client._is_legal_header_name = re.compile(br':|\A[^:\s][^:\r\n]*\Z').match

class BossSpider():
    session = Session()
    num = 0
    company ={
        # 'zhifubao': '1f8227007663695b3nV63Q~~',
        # 'baidu': 'ab9fdc6f043679990HY~',
        # 'tenxun': '2e64a887a110ea9f1nRz',
        # 'ali': '5d627415a46b4a750nJ9',
        # 'zijietiaodong': 'a67b361452e384e71XV82N4~',
        # 'huawei':'02cd05cce753437e33V50w~~',
        # 'wangyi':'821662f4a993420c3nZ62dg~',
        'jindong':'755f9f2f1799f89a03d60g~~',
        'mayi':'e9a2427bc19f1b1a33Z_3t0~',
        'jdjituan':'33e052361693f8371nF-3d25',
        'BJzijie':'7d01ce6cfe2022030HJ409y-',
        'bjtenxun':'0979070fc97e501a0nx7'
        }
    USER_AGENT_LIST=[
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1",
        "Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6",
        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1",
        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5",
        "Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Trident/4.0; SE 2.X MetaSr 1.0; SE 2.X MetaSr 1.0; .NET CLR 2.0.50727; SE 2.X MetaSr 1.0)",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
        "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3",
        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24",
        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"
    ]


    def __init__(self):
        self.proxy = self.get_proxy()
        self.agent = random.choice(self.USER_AGENT_LIST)
        self.headers = {
        ':authority': 'www.zhipin.com',
        ':method': 'GET',
        # ':path': urlb,
        ':scheme': 'https',
        'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
        'accept-encoding': 'gzip, deflate, br',
        'accept-language': 'en-US,en;q=0.9,zh-CN;q=0.8,zh;q=0.7',
        'cache-control': 'max-age=0',
        # 'referer': urla + '/{}/?page={}&ka=page-{}'.format(cp,page-1,page-1) if page>1 else 'https://www.zhipin.com/c101020100-p100109/',
        'user-agent': self.agent,
        }

    def get_proxy(self):
        url = 'http://api.xdaili.cn/xdaili-api//greatRecharge/getGreatIp?spiderId=c0fc4a1f24e245dc85fd15c355fc3530&orderno=YZ20191237434d6v6Z&returnType=1&count=1'
        text = requests.get(url).text
        print('請求代理:',"http://"+text.strip())
        if '頻繁' not in text:
            proxy = {
            'http':"http://"+text.strip(),
            'https':'https://'+text.strip()
            }
            self.proxy = proxy
        elif '10032' in text:
            print(text)
            print('代理用完')
            self.proxy = 'None'
        elif '頻繁' in text:
            print('\n5秒后再獲取代理\n')
            time.sleep(5.5)
            self.get_proxy()

    def get_detail(self,jid,lid):
        url = 'https://www.zhipin.com/view/job/card.json?jid={jid}&lid={lid}&type=2'.format(jid=jid,lid=lid)
        self.agent = random.choice(self.USER_AGENT_LIST)
        self.session.headers.update(self.headers)
        try:    
            response = self.session.get(url, proxies=self.proxy, headers=self.headers, timeout=5)
            if '請求成功' in response.text:
                html = response.json()['html']
                return html
            elif self.proxy=='None':
                return None
            else:
                self.get_proxy()
                self.get_detail(self,jid,lid)
        except Exception as e:
            print('\n\n遇到錯誤',e)
            self.get_proxy()
            self.get_detail(jid,lid)

    def getpage(self, factor, page):
        self.agent = random.choice(self.USER_AGENT_LIST)
        self.session.headers.update(self.headers)
        url = 'https://www.zhipin.com/gongsir/{factor}.html?page={page}&ka=page-{page}'.format(factor=factor,page=page)
        try:
            response = self.session.get(url, proxies=self.proxy, timeout=5, headers=self.headers)
            html = response.text
            if '公司簡介' in html:
                print('----------------獲取{}列表頁{}page\n'.format(factor,page))
                return html
            elif self.proxy=='None':
                return None
            elif '過于頻繁' in html or '您的賬號安全' in html:
                print('====過于頻繁')
                self.get_proxy()
                self.getpage(factor, page)
        except:
            self.getpage(factor, page)


    def parse_detail(self, html):
        ''
        html = etree.HTML(html)
        text = html.xpath("http://div[@class='detail-bottom']//text()")
        text = ''.join((s.strip() for s in text))
        if len(text)>20:
            print('\t\t解析到詳情頁',text[0:20]) 
        return text

    def parse_page(self, html):
        html = etree.HTML(html)
        lis = html.xpath("http://div[@class='job-list']//li")
        for li in lis:
            title = li.xpath(".//h3[@class='name']//div[@class='job-title']//text()")[0] if len(li.xpath(".//h3[@class='name']//div[@class='job-title']//text()")) else None
            salary = li.xpath(".//h3[@class='name']//span[@class='red']//text()")[0] if len(li.xpath(".//h3[@class='name']//span[@class='red']//text()")) else None
            location = li.xpath(".//div[@class='info-primary']/p/text()")[0] if len(li.xpath(".//div[@class='info-primary']/p/text()"))>0 else None
            require = li.xpath(".//div[@class='info-primary']/p/text()")[1] if len(li.xpath(".//div[@class='info-primary']/p/text()"))>1 else None
            edu = li.xpath(".//div[@class='info-primary']/p/text()")[2] if len(li.xpath(".//div[@class='info-primary']/p/text()"))>2 else None
            company = html.xpath('//div[@class="info-primary"]/h1//text()')[0] if len(html.xpath('//div[@class="info-primary"]/h1//text()')) else None
            jid = li.xpath("./a/@data-jid")[0]
            lid = li.xpath("./a/@data-lid")[0]
            url = 'https://www.zhipin.com/'+li.xpath("./a/@href")[0] if len(li.xpath("./a/@href")) else None
            self.num += 1
            print('\t',self.num,'獲得:'+title)
            detail_html = self.get_detail(lid=lid,jid=jid)
            if detail_html:
                infor = self.parse_detail(detail_html)
                with open('{}boss.txt'.format(company[:2]),'a',encoding='utf-8',errors='replace') as f1:
                    f1.write('\t'.join(str(_) for _ in (title, salary, company, edu, location, require, infor, url)) + '\n')
                item ={
                'title': title,
                'salary': salary,
                'location': location,
                'require': require,
                'edu': edu,
                'company': company,
                'infor':infor,
                'url': url
                }
                with open('{}json.txt'.format(company[:2]),'a',errors='replace',encoding='utf-8') as f2:
                    f2.write(json.dumps(item,indent=4,ensure_ascii=False)+"\n")
            else:
                pass
    def update_company(self):
        f = open('company_url.txt','w',encoding='utf-8')
        for page in range(1,30):
            r = requests.get('https://www.zhipin.com/gongsi/?page={page}&ka=page-{page}'.format(page=page),headers=self.headers,proxies=self.proxy)
            html = etree.HTML(r.text)
            if '暫時沒有' in r.text:
                break
            elif '過于頻繁' in r.text:
                self.proxy=self.get_proxy()
                self.update_company()
            elif '精準(zhǔn)匹配' in r.text:
                lis = html.xpath("http://div[contains(@class,'company-tab-box') and contains(@class,'company-list')]//li")
                for li in lis:
                    com = li.xpath(".//div[@class='conpany-text']/h4/text()")
                    url = li.xpath(".//div[@class='sub-li']/a[1]/@href")
                    if com and url:
                        com=com[0]
                        url=url[0].replace('/gongsi/','').replace('.html','')
                        self.company[com]=url
                        f.write(com+'\t'+url+'\n')
        f.close()

    def load_company(self):
        with open('company_url.txt','r',encoding='utf-8') as f:
            companylist = f.readlines()
            for i in companylist:
                if i:
                    com = i.split("\t")[0]
                    url = i.split("\t")[1].strip()
                    self.company[com]=url

    def main(self):
        for key in self.company:
            if self.proxy=='None':
                break
            value=self.company[key]
            for page in range(1,31):
                if self.proxy=='None':
                    break
                html = self.getpage(value,page)
                time.sleep(1)
                if html:
                    self.parse_page(html)

if __name__ == '__main__':
    boss = BossSpider()
    boss.main()```
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖框都,帶你破解...
    沈念sama閱讀 211,042評論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異呵晨,居然都是意外死亡魏保,警方通過查閱死者的電腦和手機熬尺,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 89,996評論 2 384
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來谓罗,“玉大人粱哼,你說我怎么就攤上這事¢菰郏” “怎么了揭措?”我有些...
    開封第一講書人閱讀 156,674評論 0 345
  • 文/不壞的土叔 我叫張陵,是天一觀的道長刻蚯。 經(jīng)常有香客問我蜂筹,道長,這世上最難降的妖魔是什么芦倒? 我笑而不...
    開封第一講書人閱讀 56,340評論 1 283
  • 正文 為了忘掉前任,我火速辦了婚禮不翩,結(jié)果婚禮上兵扬,老公的妹妹穿的比我還像新娘。我一直安慰自己口蝠,他們只是感情好器钟,可當(dāng)我...
    茶點故事閱讀 65,404評論 5 384
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著妙蔗,像睡著了一般傲霸。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上眉反,一...
    開封第一講書人閱讀 49,749評論 1 289
  • 那天昙啄,我揣著相機與錄音,去河邊找鬼寸五。 笑死梳凛,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的梳杏。 我是一名探鬼主播韧拒,決...
    沈念sama閱讀 38,902評論 3 405
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼十性!你這毒婦竟也來了叛溢?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,662評論 0 266
  • 序言:老撾萬榮一對情侶失蹤劲适,失蹤者是張志新(化名)和其女友劉穎楷掉,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體霞势,經(jīng)...
    沈念sama閱讀 44,110評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡靖诗,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,451評論 2 325
  • 正文 我和宋清朗相戀三年郭怪,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片刊橘。...
    茶點故事閱讀 38,577評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡鄙才,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出促绵,到底是詐尸還是另有隱情攒庵,我是刑警寧澤,帶...
    沈念sama閱讀 34,258評論 4 328
  • 正文 年R本政府宣布败晴,位于F島的核電站浓冒,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏尖坤。R本人自食惡果不足惜稳懒,卻給世界環(huán)境...
    茶點故事閱讀 39,848評論 3 312
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望慢味。 院中可真熱鬧场梆,春花似錦、人聲如沸纯路。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,726評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽驰唬。三九已至顶岸,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間叫编,已是汗流浹背辖佣。 一陣腳步聲響...
    開封第一講書人閱讀 31,952評論 1 264
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留搓逾,地道東北人凌简。 一個月前我還...
    沈念sama閱讀 46,271評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像恃逻,于是被迫代替她去往敵國和親雏搂。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 43,452評論 2 348

推薦閱讀更多精彩內(nèi)容