利用爬蟲Scrapy中的LinkExtractor(鏈接提取器)爬租房信息(全站爬蟲)

??目標(biāo)爬取某租房網(wǎng)站的房源信息。首先看一下網(wǎng)頁(yè)逛腿,如下圖1稀并,爬北京區(qū)域所有的租房信息。
1.jpg
1.2.jpg

??從圖上可以看到每一條出租房屋信息单默,主要包括:價(jià)格碘举,戶型,面積搁廓,樓層引颈,裝修耕皮,類型,所在區(qū)蝙场,小區(qū)明场,出租方式,朝向李丰,鄰近的地鐵線苦锨。

??首先,進(jìn)行一次抓包趴泌,圖2是抓包數(shù)據(jù)舟舒。
2.jpg

??開始上代碼:
??創(chuàng)建一個(gè)scrapy項(xiàng)目(scrapy startproject Anjuke_Spider)。會(huì)生成如下圖3的目錄嗜憔。然后秃励,在“spiders”文件夾下創(chuàng)建一個(gè)py文檔,這里命名為“anjuke_zufang”吉捶。然后加入“run”文件夺鲜。最后的目錄如圖4.
3.jpg
4.jpg

??下面,跳過(guò)scrapy的"settings"設(shè)置呐舔,直接寫主要代碼币励。
??引入所要用的庫(kù):

import scrapy
from scrapy.spiders import Rule
from scrapy.linkextractors import LinkExtractor
from Anjuke_Spider.items import AnjukeSpiderItem

??然后創(chuàng)建一個(gè)爬蟲的類:
class AnjukeSpider(scrapy.spiders.CrawlSpider): name = 'anjuke'
??寫起始的url:
start_urls = ['https://bj.zu.anjuke.com/']
??接下來(lái)就是本文的核心,LinkExtractor珊拼,首先得根據(jù)抓包數(shù)據(jù)和網(wǎng)頁(yè)進(jìn)行分析食呻,并不是所有的網(wǎng)頁(yè)爬取都能使用LinkExtractor。首先得分析需要爬取的網(wǎng)頁(yè)url澎现。
首先分析不同的目錄頁(yè)url仅胞,點(diǎn)擊頁(yè)面下的頁(yè)碼項(xiàng),去不同目錄頁(yè)剑辫,發(fā)現(xiàn)其url如下:

https://bj.zu.anjuke.com/?from=navigation 第1頁(yè)
https://bj.zu.anjuke.com/fangyuan/p2/ 第2頁(yè)
https://bj.zu.anjuke.com/fangyuan/p3/ 第3頁(yè)
https://bj.zu.anjuke.com/fangyuan/p4/ 第4頁(yè)
https://bj.zu.anjuke.com/fangyuan/p5/ 第5頁(yè)

??其中試著將第1頁(yè)的url改為“https://bj.zu.anjuke.com/fangyuan/p1/”干旧,訪問(wèn)這個(gè)url,發(fā)現(xiàn)返回的正是第1頁(yè)的頁(yè)面妹蔽。 這樣便發(fā)現(xiàn)房源的目錄頁(yè)面有這樣的規(guī)律椎眯,他們url大致一樣,改變的僅是最后的頁(yè)碼編號(hào)讹开,這可以用如下的代碼匹配房源目錄頁(yè)面的url:
https://bj.zu.anjuke.com/fangyuan/p\d+/
??在得到房源目錄頁(yè)面后盅视,點(diǎn)擊房源進(jìn)入房源頁(yè)面,獲取所要的信息旦万,如圖5闹击,我們點(diǎn)擊網(wǎng)頁(yè)獲取我們需要的信息,可以發(fā)現(xiàn)其網(wǎng)址類似于圖6所示成艘,形如:

https://bj.zu.anjuke.com/fangyuan/1203399585?from=Filter_1&hfilter=filterlist
https://bj.zu.anjuke.com/fangyuan/1202089286?from=Filter_2&hfilter=filterlist
https://bj.zu.anjuke.com/fangyuan/1200258936?from=Filter_3&hfilter=filterlist

??可以發(fā)現(xiàn)不同的網(wǎng)頁(yè)赏半,在url上主要是url末尾的10位數(shù)字不同贺归。url的?號(hào)后的內(nèi)容一般是jquery断箫,有些內(nèi)容可以去掉這樣來(lái)簡(jiǎn)化url拂酣。把問(wèn)號(hào)后的內(nèi)容去掉發(fā)現(xiàn)其仍能夠訪問(wèn)房源的頁(yè)面,這樣便能找到房源頁(yè)面的url的規(guī)律仲义,可以用如下的代碼匹配房源的url:
https://bj.zu.anjuke.com/fangyuan/\d{10}

5.jpg
6.jpg

接下開始使用“Rule”和“LinkExtractor”:

rules = (
        Rule(LinkExtractor(allow='fangyuan/p\d+/'), follow=True),
        Rule(LinkExtractor(allow='https://bj.zu.anjuke.com/fangyuan/\d{10}'), callback='parse_item'),
    )

??第一行“Rule(LinkExtractor(allow='fangyuan/p\d+/'), follow=True)”婶熬,用“allow”指定要訪問(wèn)的網(wǎng)址,因?yàn)榍懊嬉呀?jīng)指定start_urls埃撵,所以這里將“follow”指定為“True”赵颅,表示在start_urls后面添加,合起來(lái)即“https://bj.zu.anjuke.com/fangyuan/p\d+/”暂刘,這里訪問(wèn)的是房源的目錄頁(yè)饺谬。
第二行“Rule(LinkExtractor(allow='https://bj.zu.anjuke.com/fangyuan/\d{10}'), callback='parse_item')”是在第一行訪問(wèn)房源頁(yè)的基礎(chǔ)上,訪問(wèn)每一個(gè)房源頁(yè)谣拣,“callback”指定下面對(duì)數(shù)據(jù)進(jìn)行處理的方法募寨。
??接下來(lái)就該定義一個(gè)方法,方法名應(yīng)該與“callback”指定的方法名相同森缠。

    def parse_item(self, response):
        price = int(response.xpath("http://ul[@class='house-info-zufang cf']/li[1]/span[1]/em/text()").extract_first())
        house_type = response.xpath("http://ul[@class='house-info-zufang cf']/li[2]/span[2]/text()").extract_first()
        area = int(response.xpath("http://ul[@class='house-info-zufang cf']/li[3]/span[2]/text()").extract_first().replace('平方米',''))
        rent_type = response.xpath("http://ul[@class='title-label cf']/li[1]/text()").extract_first()
        towards = response.xpath("http://ul[@class='house-info-zufang cf']/li[4]/span[2]/text()").extract_first()
        floor = response.xpath("http://ul[@class='house-info-zufang cf']/li[5]/span[2]/text()").extract_first()
        decoration = response.xpath("http://ul[@class='house-info-zufang cf']/li[6]/span[2]/text()").extract_first()
        building_type = response.xpath("http://ul[@class='house-info-zufang cf']/li[7]/span[2]/text()").extract_first()
        district = response.xpath("http://ul[@class='house-info-zufang cf']/li[8]/a[2]/text()").extract_first()
        station = response.xpath("http://ul[@class='house-info-zufang cf']/li[8]/a[3]/text()").extract_first()
        community = response.xpath("http://ul[@class='house-info-zufang cf']/li[8]/a[1]/text()").extract_first()
        subway_line = response.xpath("http://ul[@class='title-label cf']/li[3]/text()").extract_first()

??方法parse_item的response返回的便是房源頁(yè)面的HTML數(shù)據(jù)拔鹰,因?yàn)闆]有json數(shù)據(jù),所以只能從HTML數(shù)據(jù)匹配所需要的數(shù)據(jù)辅鲸。這里用的Xpath格郁,獲取price(租金)、house_type(戶型)独悴、area(面積)、rent_type(出租方式)锣尉、towards(朝向)刻炒、floor(樓層)、decoration(裝修)自沧、building_type(樓類型)坟奥、district(所在區(qū))、station(臨近地鐵站)拇厢、community(社區(qū)爱谁、小區(qū))、subway_line(地鐵線路)孝偎。
最后貼上anjuke_zufang.py的完整代碼:

import scrapy
from scrapy.spiders import Rule
from scrapy.linkextractors import LinkExtractor
from Anjuke_Spider.items import AnjukeSpiderItem

class AnjukeSpider(scrapy.spiders.CrawlSpider):

    name = 'anjuke'
    start_urls = ['https://bj.zu.anjuke.com/']

    rules = (
        Rule(LinkExtractor(allow='fangyuan/p\d+/'), follow=True),
        Rule(LinkExtractor(allow='https://bj.zu.anjuke.com/fangyuan/\d{10}'), callback='parse_item'),
    )

    def parse_item(self, response):
        price = int(response.xpath("http://ul[@class='house-info-zufang cf']/li[1]/span[1]/em/text()").extract_first())
        house_type = response.xpath("http://ul[@class='house-info-zufang cf']/li[2]/span[2]/text()").extract_first()
        area = int(response.xpath("http://ul[@class='house-info-zufang cf']/li[3]/span[2]/text()").extract_first().replace('平方米',''))
        rent_type = response.xpath("http://ul[@class='title-label cf']/li[1]/text()").extract_first()
        towards = response.xpath("http://ul[@class='house-info-zufang cf']/li[4]/span[2]/text()").extract_first()
        floor = response.xpath("http://ul[@class='house-info-zufang cf']/li[5]/span[2]/text()").extract_first()
        decoration = response.xpath("http://ul[@class='house-info-zufang cf']/li[6]/span[2]/text()").extract_first()
        building_type = response.xpath("http://ul[@class='house-info-zufang cf']/li[7]/span[2]/text()").extract_first()
        district = response.xpath("http://ul[@class='house-info-zufang cf']/li[8]/a[2]/text()").extract_first()
        station = response.xpath("http://ul[@class='house-info-zufang cf']/li[8]/a[3]/text()").extract_first()
        community = response.xpath("http://ul[@class='house-info-zufang cf']/li[8]/a[1]/text()").extract_first()
        subway_line = response.xpath("http://ul[@class='title-label cf']/li[3]/text()").extract_first()


        item = AnjukeSpiderItem()
        item['price'] = price
        item['house_type'] = house_type
        item['area'] = area
        item['rent_type'] = rent_type
        item['towards'] = towards
        item['floor'] = floor
        item['decoration'] = decoration
        item['building_type'] = building_type
        item['district'] = district
        item['station'] = station
        item['community'] = community
        item['subway_line'] = subway_line

        yield item

??對(duì)于scrapy項(xiàng)目访敌,除了要寫爬蟲的主程序,還需要配置settings衣盾,items寺旺,pipelines爷抓,middleware等文件。還需要修改run文件阻塑。對(duì)于items文件修改如下:

import scrapy

class AnjukeSpiderItem(scrapy.Item):
    price = scrapy.Field()
    house_type = scrapy.Field()
    area = scrapy.Field()
    rent_type = scrapy.Field()
    towards = scrapy.Field()
    floor = scrapy.Field()
    decoration = scrapy.Field()
    building_type = scrapy.Field()
    district = scrapy.Field()
    community = scrapy.Field()
    station = scrapy.Field()
    subway_line = scrapy.Field()

本項(xiàng)目需要在settings中設(shè)置headers蓝撇,如下:

DEFAULT_REQUEST_HEADERS = {
    'Connection': 'keep-alive',
    'Upgrade-Insecure-Requests': '1',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.75 Safari/537.36',
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
    'Accept-Encoding': 'gzip, deflate, br',
    'Accept-Language': 'zh-CN,zh;q=0.9'
}

??run文件如下:

from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings

# 獲取settings.py模塊的設(shè)置
from Anjuke_Spider.spiders.anjuke_zufang import AnjukeSpider

settings = get_project_settings()
process = CrawlerProcess(settings=settings)

# 可以添加多個(gè)spider
process.crawl(AnjukeSpider)

# 啟動(dòng)爬蟲,會(huì)阻塞陈莽,直到爬取完成
process.start()

??其次還需要在pipelines中將結(jié)果寫入一個(gè)文件中渤昌,本項(xiàng)目將結(jié)果寫入了mysql數(shù)據(jù)庫(kù),這里不再詳細(xì)介紹走搁。

??最后爬取的結(jié)果如下圖:
8.jpg

??其中要注意的是独柑,在爬取的過(guò)程中,會(huì)觸發(fā)網(wǎng)站的反爬機(jī)制朱盐,但是在設(shè)置一個(gè)隨機(jī)的時(shí)間間隔便能繼續(xù)進(jìn)行群嗤,在settings中設(shè)置:
DOWNLOAD_DELAY = 1.5

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市兵琳,隨后出現(xiàn)的幾起案子狂秘,更是在濱河造成了極大的恐慌,老刑警劉巖躯肌,帶你破解...
    沈念sama閱讀 210,978評(píng)論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件者春,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡清女,警方通過(guò)查閱死者的電腦和手機(jī)钱烟,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 89,954評(píng)論 2 384
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)嫡丙,“玉大人拴袭,你說(shuō)我怎么就攤上這事∈锊” “怎么了拥刻?”我有些...
    開封第一講書人閱讀 156,623評(píng)論 0 345
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)父泳。 經(jīng)常有香客問(wèn)我般哼,道長(zhǎng),這世上最難降的妖魔是什么惠窄? 我笑而不...
    開封第一講書人閱讀 56,324評(píng)論 1 282
  • 正文 為了忘掉前任蒸眠,我火速辦了婚禮,結(jié)果婚禮上杆融,老公的妹妹穿的比我還像新娘楞卡。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,390評(píng)論 5 384
  • 文/花漫 我一把揭開白布臀晃。 她就那樣靜靜地躺著觉渴,像睡著了一般。 火紅的嫁衣襯著肌膚如雪徽惋。 梳的紋絲不亂的頭發(fā)上案淋,一...
    開封第一講書人閱讀 49,741評(píng)論 1 289
  • 那天,我揣著相機(jī)與錄音险绘,去河邊找鬼踢京。 笑死,一個(gè)胖子當(dāng)著我的面吹牛宦棺,可吹牛的內(nèi)容都是我干的瓣距。 我是一名探鬼主播,決...
    沈念sama閱讀 38,892評(píng)論 3 405
  • 文/蒼蘭香墨 我猛地睜開眼代咸,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼蹈丸!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起呐芥,我...
    開封第一講書人閱讀 37,655評(píng)論 0 266
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤逻杖,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后思瘟,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體荸百,經(jīng)...
    沈念sama閱讀 44,104評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,451評(píng)論 2 325
  • 正文 我和宋清朗相戀三年滨攻,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了够话。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 38,569評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡光绕,死狀恐怖女嘲,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情诞帐,我是刑警寧澤澡为,帶...
    沈念sama閱讀 34,254評(píng)論 4 328
  • 正文 年R本政府宣布,位于F島的核電站景埃,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏顶别。R本人自食惡果不足惜谷徙,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,834評(píng)論 3 312
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望驯绎。 院中可真熱鬧完慧,春花似錦、人聲如沸剩失。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,725評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至脾歧,卻和暖如春甲捏,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背鞭执。 一陣腳步聲響...
    開封第一講書人閱讀 31,950評(píng)論 1 264
  • 我被黑心中介騙來(lái)泰國(guó)打工司顿, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人兄纺。 一個(gè)月前我還...
    沈念sama閱讀 46,260評(píng)論 2 360
  • 正文 我出身青樓大溜,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親估脆。 傳聞我的和親對(duì)象是個(gè)殘疾皇子钦奋,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,446評(píng)論 2 348

推薦閱讀更多精彩內(nèi)容

  • 1、通過(guò)CocoaPods安裝項(xiàng)目名稱項(xiàng)目信息 AFNetworking網(wǎng)絡(luò)請(qǐng)求組件 FMDB本地?cái)?shù)據(jù)庫(kù)組件 SD...
    陽(yáng)明先生_X自主閱讀 15,969評(píng)論 3 119
  • # Python 資源大全中文版 我想很多程序員應(yīng)該記得 GitHub 上有一個(gè) Awesome - XXX 系列...
    aimaile閱讀 26,448評(píng)論 6 428
  • Android 自定義View的各種姿勢(shì)1 Activity的顯示之ViewRootImpl詳解 Activity...
    passiontim閱讀 171,732評(píng)論 25 707
  • 曾經(jīng)被別人看作是第三者疙赠,破壞了人家?guī)啄甑母星楦恫模吹剿プ约盒膼鄣娜耸嵌嗝吹牟豢埃谒Y(jié)束了感情之后棺聊,試著想慢慢的...
    小對(duì)號(hào)閱讀 327評(píng)論 0 0
  • 一個(gè)工人要為你干7天活伞租,總報(bào)酬是一塊上圖金條,他要求每天結(jié)帳限佩,你也不愿意提前預(yù)付葵诈。但你只能在金條上切兩刀,金條既不...
    頓悟者閱讀 221評(píng)論 0 0