-
通過三種方式抓取字段:
招聘標題 待遇 地區(qū) 學(xué)歷要求 經(jīng)驗 公司名稱 公司的行業(yè) 職位描述
-
效果預(yù)覽
爬取
image
image -
注意事項
- 利用xpath或者其它方式選取節(jié)點時缔逛,需要注意判斷是否為None,如果在后面調(diào)用.strip()等方法肯定會報錯昼激,所以建議提取出一個共用的判斷方法
- url拼接問題,當大部分詳情頁鏈接都有schema時曹质,突然返回你一個沒有https://等的鏈接而涉,此時爬取肯定出錯荠藤,所以建議使用parse.urljoin('https://www.liepin.com',url)方法拼接
- 建議使用bs4爬取時半抱,選取select方法,能提高編程效率和避免一些由于class或其它屬性有多個值的情況
-
上代碼
-
首先定義一個Spider類驯杜,其主要作用就是作為其它三種方式的父類受啥,提取出共有的行為,學(xué)過Java的應(yīng)該很好理解鸽心,它們都有請求數(shù)據(jù)滚局,解析數(shù)據(jù),請求工作詳情數(shù)據(jù)顽频,解析工作詳情數(shù)據(jù)藤肢,解析數(shù)據(jù)的話,得讓子類實現(xiàn)糯景,所以此類需要設(shè)置為抽象類
class Spider(): __metaclass__ = abc.ABCMeta def __init__(self): self.row_title = ['標題','待遇','地區(qū)','學(xué)歷要求','經(jīng)驗','公司名稱','所屬行業(yè)','職位描述'] sheet_name = "獵聘網(wǎng)" self.execl_f, self.sheet_info = ExeclUtils.create_execl(sheet_name,self.row_title) # add element in one data self.job_data = [] # the data added start with 1 self.count = 0 def crawler_data(self): ''' crawler data ''' for i in range(0,5): url = 'https://www.liepin.com/zhaopin/?industryType=&jobKind=&sortFlag=15°radeFlag=0&industries=&salary=&compscale=&key=Python&clean_condition=&headckid=4a4adb68b22970bd&d_pageSize=40&siTag=p_XzVCa5J0EfySMbVjghcw~fA9rXquZc5IkJpXC-Ycixw&d_headId=62ac45351cdd7a103ac7d50e1142b2a0&d_ckId=62ac45351cdd7a103ac7d50e1142b2a0&d_sfrom=search_fp&d_curPage=0&curPage={}'.format(i) self.request_job_list(url) time.sleep(2) def request_job_list(self,url): ''' get the job data by request url ''' try: headers = { 'Referer':'https://www.liepin.com/', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36' } reponse = requests.get(url,headers = headers) # utf-8 if reponse.status_code != 200: return self.parse_job_list(reponse.text) except Exception as e: # raise e print('request_job_list error : {}'.format(e)) @abc.abstractmethod def parse_job_list(self,text): ''' parsing the data from the response ''' pass def request_job_details(self,url): ''' request thr job detail's url ''' try: headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36' } response = requests.get(url,headers = headers); # utf-8 if response.status_code != 200: return self.parse_job_details(response.text) except Exception as e: # raise e print('request_job_details error : {}'.format(e)) @abc.abstractmethod def parse_job_details(self,text): ''' parsing the job details from text ''' pass .......
剩下的xpath嘁圈、re、bs爬取蟀淮,它們的類只需要繼承該類最住,實現(xiàn)其抽象方法
由于上代碼篇幅太長,直接上傳送門
thank you for reading
-
Python 3.6 優(yōu)雅的爬取獵聘網(wǎng)招聘信息
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
- 文/潘曉璐 我一進店門讽膏,熙熙樓的掌柜王于貴愁眉苦臉地迎上來檩电,“玉大人,你說我怎么就攤上這事府树±” “怎么了?”我有些...
- 文/不壞的土叔 我叫張陵奄侠,是天一觀的道長卓箫。 經(jīng)常有香客問我,道長垄潮,這世上最難降的妖魔是什么烹卒? 我笑而不...
- 正文 為了忘掉前任闷盔,我火速辦了婚禮,結(jié)果婚禮上旅急,老公的妹妹穿的比我還像新娘逢勾。我一直安慰自己,他們只是感情好藐吮,可當我...
- 文/花漫 我一把揭開白布溺拱。 她就那樣靜靜地躺著,像睡著了一般谣辞。 火紅的嫁衣襯著肌膚如雪盟迟。 梳的紋絲不亂的頭發(fā)上,一...
- 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼戏阅!你這毒婦竟也來了昼弟?” 一聲冷哼從身側(cè)響起,我...
- 正文 年R本政府宣布萨咳,位于F島的核電站,受9級特大地震影響迂卢,放射性物質(zhì)發(fā)生泄漏某弦。R本人自食惡果不足惜桐汤,卻給世界環(huán)境...
- 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望靶壮。 院中可真熱鬧怔毛,春花似錦、人聲如沸腾降。這莊子的主人今日做“春日...
- 文/蒼蘭香墨 我抬頭看了看天上的太陽螃壤。三九已至抗果,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間奸晴,已是汗流浹背冤馏。 一陣腳步聲響...
推薦閱讀更多精彩內(nèi)容
- Spring Cloud為開發(fā)人員提供了快速構(gòu)建分布式系統(tǒng)中一些常見模式的工具(例如配置管理乙帮,服務(wù)發(fā)現(xiàn)杜漠,斷路器,智...
- 需要準備 redis mongodb scrapy-redis 這些自己百度安裝 1.對要爬取的頁面進行分析察净。驾茴。。...
- 之前就爬過拉勾網(wǎng)塞绿,但是遇到一些錯誤一直沒有辦法解決沟涨,果斷放棄了,今天又重新試著寫寫看异吻,對于一個菜鳥來說裹赴,真的都是處...