python爬蟲-爬取盜墓筆記

本來今天要繼續(xù)更新 **scrapy爬取美女圖片 **系列文章惯殊,可是發(fā)現(xiàn) **使用免費的代理ip都非常不穩(wěn)定,有時候連接上,有時候連接不上 **馒疹,所以我想找到 **穩(wěn)定的代理i p谬泌,下次再更新 scrapy爬取美女圖片之應對反爬蟲 ** 文章滔韵。(我的新書《Python爬蟲開發(fā)與項目實戰(zhàn)》發(fā)布了,大家在這里可以看到樣章


好了掌实,廢話不多說陪蜻,咱們進入今天的主題。這一篇文章是關于爬取盜墓筆記贱鼻,主要技術要點是 **scrapy的使用 **宴卖,scrapy框架中 **使用mongodb數(shù)據(jù)庫 **, 文件的保存 邻悬。


<p>
<p>
<p>
<p>
這次爬取的網(wǎng)址是 seputu.com症昏。之前也經(jīng)常在上面
在線看盜墓筆記

按照咱們之前的學習爬蟲的做法父丰,使用firebug審查元素肝谭,查看如何解析html
<p>
這次咱們要把書的名稱,章節(jié)攘烛,章節(jié)名稱魏滚,章節(jié)鏈接抽取出來,存儲到數(shù)據(jù)庫中坟漱,同時將文章的內(nèi)容提取出來存成txt文件鼠次。
<p>


<p>
看一下html結構就會發(fā)現(xiàn)這個頁面結構非常分明,標題的html節(jié)點是 ** div class = ''mulu-title"芋齿,章節(jié)的節(jié)點是 div class= "box" **腥寇,每一章的節(jié)點是 div class= "box"中的li標簽

<p>

然后咱們將第一章的鏈接 http://seputu.com/biji1/1.html打開沟突,上面就是文章的內(nèi)容花颗。
<p>


<p>
可以看到文章的內(nèi)容是使用 **div class ="content-body"中的p標簽 **包裹起來的,總體來說提取難度挺小惠拭。

打開cmd扩劝,輸入 **scrapy startproject daomubiji **,這時候會生成一個工程,然后我把整個工程復制到 **pycharm **中

**上圖就是工程的結構 **职辅。

    DaomubijiSpider.py ------Spider 蜘蛛

    items.py -----------------對要爬取數(shù)據(jù)的模型定義

    pipelines.py-------------處理要存儲的數(shù)據(jù)(存到數(shù)據(jù)庫和寫到文件)

    settings.py----------------對Scrapy的配置

    main.py -------------------啟動爬蟲

    test.py -------------------- 測試程序(不參與整體運行)

下面將 **解析和存儲 **的代碼貼一下棒呛,完整代碼已上傳到github:https://github.com/qiyeboy/daomuSpider

DaomubijiSpider.py (解析html)
#coding:utf-8
import scrapy
from scrapy.selector import Selector
from daomubiji.items import DaomubijiItem
 
 
class daomuSpider(scrapy.Spider):
    name = "daomu"
    allowed_domains = ["seputu.com"]
    start_urls = ["http://seputu.com/"]
    ''.split()
 
    def parse(self, response):
        selector = Selector(response)
        mulus= selector.xpath("http://div[@class='mulu']/div[@class='mulu-title']/center/h2/text()").extract()#將目錄提取出來
        boxs = selector.xpath("http://div[@class='mulu']/div[@class='box']")#.extract()
        for i in range(len(mulus)):
            mulu = mulus[i]#提取出來一個目錄
            box = boxs[i]#提取出來一個box
            texts = box.xpath(".//ul/li/a/text()").extract()#將文本提取出來
            urls  = box.xpath(".//ul/li/a/@href").extract()#將鏈接提取出來
            for j in range(len(urls)):
                item = DaomubijiItem()
                item['bookName'] = mulu
                try:
                    item['bookTitle'] = texts[j].split(' ')[0]
                    item['chapterNum'] = texts[j].split(' ')[1]
                    item['chapterName'] = texts[j].split(' ')[2]
                    item['chapterUrl'] = urls[j]
                    request = scrapy.Request(urls[j],callback=self.parseBody)
                    request.meta['item'] = item
                    yield request
 
 
                except Exception,e:
                    print 'excepiton',e
                    continue
 
 
 
    def parseBody(self,response):
        '''
        解析小說章節(jié)中的內(nèi)容
        :param response:
        :return:
        '''
        item = response.meta['item']
        selector = Selector(response)
 
        item['chapterContent'] ='\r\n'.join(selector.xpath("http://div[@class='content-body']/p/text()").extract())
        yield item
   pipelines.py:(處理要存儲的數(shù)據(jù))
 
# -*- coding: utf-8 -*-
 
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html
import os
from scrapy.pipelines.files import FilesPipeline
from daomubiji import settings
from pymongo import MongoClient
 
class DaomubijiPipeline(object):
    def process_item(self, item, spider):#將小說進行存儲
        dir_path = '%s/%s/%s'%(settings.FILE_STORE,spider.name,item['bookName']+'_'+item['bookTitle'])#存儲路徑
        print 'dir_path',dir_path
        if not os.path.exists(dir_path):
            os.makedirs(dir_path)
        file_path = '%s/%s'%(dir_path,item['chapterNum']+'_'+item['chapterName']+'.txt')
        with open(file_path,'w') as file_writer:
            file_writer.write(item['chapterContent'].encode('utf-8'))
            file_writer.write('\r\n'.encode('utf-8'))
 
        file_writer.close()
        return item
 
class DaomuSqlPipeline(object):
 
    def __init__(self):
    #連接mongo數(shù)據(jù)庫,并把數(shù)據(jù)存儲
        client = MongoClient()#'mongodb://localhost:27017/'///'localhost', 27017///'mongodb://tanteng:123456@localhost:27017/'
        db = client.daomu
        self.books = db.books
 
    def process_item(self, item, spider):
        print 'spider_name',spider.name
        temp ={'bookName':item['bookName'],
               'bookTitle':item['bookTitle'],
               'chapterNum':item['chapterNum'],
               'chapterName':item['chapterName'],
               'chapterUrl':item['chapterUrl']
               }
        self.books.insert(temp)
 
        return item

接下來切換到main.py所在目錄域携,運行python main.py啟動爬蟲簇秒。

沒過幾分鐘,爬蟲就結束了秀鞭,咱們看一下爬取的數(shù)據(jù)和文件趋观。

數(shù)據(jù)庫數(shù)據(jù):

今天的分享就到這里,如果大家覺得還可以呀锋边,記得打賞

最后編輯于
?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末皱坛,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子豆巨,更是在濱河造成了極大的恐慌剩辟,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,695評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件往扔,死亡現(xiàn)場離奇詭異贩猎,居然都是意外死亡,警方通過查閱死者的電腦和手機萍膛,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,569評論 3 399
  • 文/潘曉璐 我一進店門吭服,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人蝗罗,你說我怎么就攤上這事艇棕÷蟮剑” “怎么了?”我有些...
    開封第一講書人閱讀 168,130評論 0 360
  • 文/不壞的土叔 我叫張陵欠肾,是天一觀的道長。 經(jīng)常有香客問我拟赊,道長刺桃,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 59,648評論 1 297
  • 正文 為了忘掉前任吸祟,我火速辦了婚禮瑟慈,結果婚禮上,老公的妹妹穿的比我還像新娘屋匕。我一直安慰自己葛碧,他們只是感情好,可當我...
    茶點故事閱讀 68,655評論 6 397
  • 文/花漫 我一把揭開白布过吻。 她就那樣靜靜地躺著进泼,像睡著了一般。 火紅的嫁衣襯著肌膚如雪纤虽。 梳的紋絲不亂的頭發(fā)上乳绕,一...
    開封第一講書人閱讀 52,268評論 1 309
  • 那天,我揣著相機與錄音逼纸,去河邊找鬼洋措。 笑死,一個胖子當著我的面吹牛杰刽,可吹牛的內(nèi)容都是我干的菠发。 我是一名探鬼主播,決...
    沈念sama閱讀 40,835評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼贺嫂,長吁一口氣:“原來是場噩夢啊……” “哼滓鸠!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起涝婉,我...
    開封第一講書人閱讀 39,740評論 0 276
  • 序言:老撾萬榮一對情侶失蹤哥力,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后墩弯,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體吩跋,經(jīng)...
    沈念sama閱讀 46,286評論 1 318
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,375評論 3 340
  • 正文 我和宋清朗相戀三年渔工,在試婚紗的時候發(fā)現(xiàn)自己被綠了锌钮。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,505評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡引矩,死狀恐怖梁丘,靈堂內(nèi)的尸體忽然破棺而出侵浸,到底是詐尸還是另有隱情,我是刑警寧澤氛谜,帶...
    沈念sama閱讀 36,185評論 5 350
  • 正文 年R本政府宣布掏觉,位于F島的核電站,受9級特大地震影響值漫,放射性物質(zhì)發(fā)生泄漏澳腹。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,873評論 3 333
  • 文/蒙蒙 一杨何、第九天 我趴在偏房一處隱蔽的房頂上張望酱塔。 院中可真熱鬧,春花似錦危虱、人聲如沸羊娃。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,357評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽蕊玷。三九已至,卻和暖如春捌蚊,著一層夾襖步出監(jiān)牢的瞬間集畅,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,466評論 1 272
  • 我被黑心中介騙來泰國打工缅糟, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留挺智,地道東北人。 一個月前我還...
    沈念sama閱讀 48,921評論 3 376
  • 正文 我出身青樓窗宦,卻偏偏與公主長得像赦颇,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子赴涵,可洞房花燭夜當晚...
    茶點故事閱讀 45,515評論 2 359

推薦閱讀更多精彩內(nèi)容

  • 聲明:本文講解的實戰(zhàn)內(nèi)容媒怯,均僅用于學習交流,請勿用于任何商業(yè)用途髓窜! 一扇苞、前言 強烈建議:請在電腦的陪同下,閱讀本文...
    Bruce_Szh閱讀 12,725評論 6 28
  • 1 前言 作為一名合格的數(shù)據(jù)分析師寄纵,其完整的技術知識體系必須貫穿數(shù)據(jù)獲取鳖敷、數(shù)據(jù)存儲、數(shù)據(jù)提取程拭、數(shù)據(jù)分析定踱、數(shù)據(jù)挖掘、...
    whenif閱讀 18,080評論 45 523
  • 不要怨 不要期望 讓我們之間的交往 都出于正常
    GoodnightFanfan閱讀 145評論 0 0
  • 1.給學校做網(wǎng)站的事情還是放到以后吧恃鞋!目前應該做最重要的事情崖媚! android 每天一集亦歉! 以后嘗試著去寫文章! ...
    雷一凡閱讀 175評論 0 0
  • 我收到一封信畅哑, 來自春天的桃杏肴楷。 猶如情書,云淡風輕荠呐; 滿心向你阶祭,哪怕孤影。 我收到一封信直秆, 來自夏天的青荇。 鱗...
    方應君閱讀 421評論 4 22