Scrapy爬蟲實戰(zhàn)項目【001】 - 抓取貓眼電影TOP100

爬取貓眼電影TOP100

參考來源:靜覓丨崔慶才的個人博客 https://cuiqingcai.com/5534.html

目的:使用Scrapy爬取貓眼電影TOP100并保存至MONGODB數(shù)據(jù)庫

目標(biāo)網(wǎng)址:http://maoyan.com/board/4?offset=0

分析/知識點:

  1. 爬取難度:
    a. 入門級盆佣,網(wǎng)頁結(jié)構(gòu)簡單善玫,靜態(tài)HTML炼彪,少量JS柠座,不涉及AJAX动知;
    b. 處理分頁需要用到正則养铸;

  2. MONGODB的update語句使用:
    a. update語句:具備查重/插入新數(shù)據(jù)功能讼积,以title為查重標(biāo)準(zhǔn)

def process_item(self, item, spider):
    self.db['movies'].update({'title': item['title']}, {'$set': item}, upsert=True) #注意upsert=True扛门,更新并插入
    return item

實際步驟:

  1. 創(chuàng)建Scrapy項目/maoyan(spider)
Terminal: > scrapy startproject maoyan_movie
Terminal: > scrapy genspider maoyan maoyan.com/board/4?offset=   
  1. 配置settings.py文件
# MONGODB配置
MONGO_URI = 'localhost'
MONGO_DB = 'maoyan_movie'
...

# 啟用MongoPipeline
ITEM_PIPELINES = {
   'maoyan_movie.pipelines.MongoPipeline': 300,
}
  1. 編寫items.py文件
from scrapy import Item, Field

class MovieItem(Item):
    title = Field()     #電影標(biāo)題
    actors = Field()    #演員
    releasetime = Field()   #上映時間
    cover_img = Field()     #縮略圖
    detail_page = Field()   #電影詳情頁url
    score = Field()         #電影評分
  1. 編寫pipelines.py文件
    根據(jù)Scrapy官方文檔修改:https://doc.scrapy.org/en/latest/topics/item-pipeline.html?highlight=mongo
import pymongo

class MongoPipeline(object):
    def __init__(self, mongo_uri, mongo_db):
        self.mongo_uri = mongo_uri
        self.mongo_db = mongo_db

    @classmethod
    def from_crawler(cls, crawler):
        return cls(
            mongo_uri=crawler.settings.get('MONGO_URI'),
            mongo_db=crawler.settings.get('MONGO_DB')
        )

    def open_spider(self, spider):
        self.client = pymongo.MongoClient(self.mongo_uri)
        self.db = self.client[self.mongo_db]

    def close_spider(self, spider):
        self.client.close()

    # !! 更新MONGODB沐祷,使用UPDATE方法嚷闭,查重功能(以title字段進(jìn)行判斷)
    def process_item(self, item, spider):
        self.db['movies'].update({'title': item['title']}, {'$set': item}, upsert=True)
        return item

  1. 編寫spiders > maoyan.py文件
    注意:
    a) 使用scrapy的css selector進(jìn)行節(jié)點解析;
    b) 獲取電影縮略圖url時赖临,注意需要根據(jù)網(wǎng)頁源代碼寫css選擇器胞锰,和審查元素中看到的不同;
item['cover_img'] = movie.css('a.image-link img.board-img::attr(data-src)').extract_first()

c) 獲取下一頁節(jié)點時兢榨,直接使用xpath或css難以直接獲得嗅榕,需要使用正則匹配;

next = response.xpath('.').re_first(r'href="(.*?)">下一頁</a>')

d) 完整代碼如下:

from scrapy import Spider, Request
from maoyan_movie.items import MovieItem

class MaoyanSpider(Spider):
    name = 'maoyan'
    allowed_domains = ['maoyan.com/board/4?offset=']
    start_urls = ['http://maoyan.com/board/4?offset=']

    # 每部電影詳情頁的基本前綴url
    base_url = 'http://maoyan.com'

    # 下一頁前綴url
    next_base_url = 'http://maoyan.com/board/4'

    def parse(self, response):
        if response:
            # 獲取每頁所有電影的節(jié)點
            movies = response.css('dl.board-wrapper dd')  # 獲取所有電影相關(guān)節(jié)點吵聪,切記A枘恰!不能加上extract()
            item = MovieItem()
            for movie in movies:
                item['title'] = movie.css('p.name a::text').extract_first()
                item['actors'] = movie.css('p.star::text').extract_first().strip()
                item['releasetime'] = movie.css('p.releasetime::text').extract_first().strip()
                item['score'] = movie.css('i.integer::text').extract_first() + movie.css(
                    'i.fraction::text').extract_first()
                item['detail_page'] = self.base_url + movie.css('p.name a::attr(href)').extract_first()
                item['cover_img'] = movie.css(
                    'a.image-link img.board-img::attr(data-src)').extract_first()  # 注意:需要根據(jù)網(wǎng)頁源碼寫css選擇器吟逝,和審查元素中的不同帽蝶,估計是受JS影響
                yield item

            # 處理下一頁
            next = response.xpath('.').re_first(r'href="(.*?)">下一頁</a>')
            if next:
                next_url = self.next_base_url + next
                yield Request(url=next_url, callback=self.parse, dont_filter=True)
  1. 運行結(jié)果
    temp.png

小結(jié)

  1. 入門級項目,熟悉了Scrapy的基本使用流程块攒;
  2. Scrapy的css/xpath選擇器励稳、正則寫法需要進(jìn)一步熟悉;
  3. pymongo的update語句囱井,需要進(jìn)一步熟練掌握驹尼。
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市庞呕,隨后出現(xiàn)的幾起案子新翎,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,386評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件料祠,死亡現(xiàn)場離奇詭異骆捧,居然都是意外死亡澎羞,警方通過查閱死者的電腦和手機(jī)髓绽,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,142評論 3 394
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來妆绞,“玉大人顺呕,你說我怎么就攤上這事±ㄈ模” “怎么了株茶?”我有些...
    開封第一講書人閱讀 164,704評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長图焰。 經(jīng)常有香客問我启盛,道長,這世上最難降的妖魔是什么技羔? 我笑而不...
    開封第一講書人閱讀 58,702評論 1 294
  • 正文 為了忘掉前任僵闯,我火速辦了婚禮,結(jié)果婚禮上藤滥,老公的妹妹穿的比我還像新娘鳖粟。我一直安慰自己,他們只是感情好拙绊,可當(dāng)我...
    茶點故事閱讀 67,716評論 6 392
  • 文/花漫 我一把揭開白布向图。 她就那樣靜靜地躺著,像睡著了一般标沪。 火紅的嫁衣襯著肌膚如雪榄攀。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,573評論 1 305
  • 那天金句,我揣著相機(jī)與錄音檩赢,去河邊找鬼。 笑死趴梢,一個胖子當(dāng)著我的面吹牛漠畜,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播坞靶,決...
    沈念sama閱讀 40,314評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼憔狞,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了彰阴?” 一聲冷哼從身側(cè)響起瘾敢,我...
    開封第一講書人閱讀 39,230評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后簇抵,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體庆杜,經(jīng)...
    沈念sama閱讀 45,680評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,873評論 3 336
  • 正文 我和宋清朗相戀三年碟摆,在試婚紗的時候發(fā)現(xiàn)自己被綠了晃财。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,991評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡典蜕,死狀恐怖断盛,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情愉舔,我是刑警寧澤钢猛,帶...
    沈念sama閱讀 35,706評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站轩缤,受9級特大地震影響命迈,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜火的,卻給世界環(huán)境...
    茶點故事閱讀 41,329評論 3 330
  • 文/蒙蒙 一壶愤、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧卫玖,春花似錦公你、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,910評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至脱茉,卻和暖如春剪芥,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背琴许。 一陣腳步聲響...
    開封第一講書人閱讀 33,038評論 1 270
  • 我被黑心中介騙來泰國打工税肪, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人榜田。 一個月前我還...
    沈念sama閱讀 48,158評論 3 370
  • 正文 我出身青樓益兄,卻偏偏與公主長得像,于是被迫代替她去往敵國和親箭券。 傳聞我的和親對象是個殘疾皇子净捅,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,941評論 2 355

推薦閱讀更多精彩內(nèi)容