第五章:Scrapy筆記(一)

Scrapy架構(gòu)圖

Scrapy框架模塊功能:

  1. Scrapy Engine(引擎):Scrapy框架的核心部分樱哼。負責在Spider和ItemPipeline良姆、Downloader冀泻、Scheduler中間通信二跋、傳遞數(shù)據(jù)等。
  2. Spider(爬蟲):發(fā)送需要爬取的鏈接給引擎信柿,最后引擎把其他模塊請求回來的數(shù)據(jù)再發(fā)送給爬蟲,爬蟲就去解析想要的數(shù)據(jù)醒第。這個部分是我們開發(fā)者自己寫的渔嚷,因為要爬取哪些鏈接,頁面中的哪些數(shù)據(jù)是我們需要的稠曼,都是由程序員自己決定形病。
  3. Scheduler(調(diào)度器):負責接收引擎發(fā)送過來的請求,并按照一定的方式進行排列和整理霞幅,負責調(diào)度請求的順序等漠吻。
  4. Downloader(下載器):負責接收引擎?zhèn)鬟^來的下載請求,然后去網(wǎng)絡(luò)上下載對應(yīng)的數(shù)據(jù)再交還給引擎司恳。
  5. Item Pipeline(管道):負責將Spider(爬蟲)傳遞過來的數(shù)據(jù)進行保存途乃。具體保存在哪里,應(yīng)該看開發(fā)者自己的需求扔傅。
  6. Downloader Middlewares(下載中間件):可以擴展下載器和引擎之間通信功能的中間件耍共。
  7. Spider Middlewares(Spider中間件):可以擴展引擎和爬蟲之間通信功能的中間件。

Scrapy文檔

  1. Scrapy官方文檔
  2. Scrapy中文文檔

安裝Scrapy框架

  1. 安裝‘scrapy’:通過‘pip install scrapy’即可安裝猎塞。
  2. 如果在windows下划提,還需要安裝‘pypiwin32’,安裝方式‘pip install pipiwin32’邢享。
  3. 如果在ubuntu下鹏往,還需安裝以下三方庫:‘sudo apt-get install python3-dev build-essential python3-pip libxml2-dev libxslt1-dev zlib1g-dev libffi-dev libssl-dev’,然后再通過pip install scrapy安裝骇塘。

創(chuàng)建項目和爬蟲:

  1. 創(chuàng)建項目:‘scrapy startproject +爬蟲的名字’伊履。
  2. 創(chuàng)建爬蟲:進入到項目所在路徑,執(zhí)行命令:scrapy genspider +爬蟲的名字 +"爬蟲的域名"款违。注意唐瀑,爬蟲的名字不能和項目名稱一致。

項目目錄結(jié)構(gòu):

  1. items.py:用來存放爬蟲爬取下來數(shù)據(jù)的模型插爹。
  2. middlewares.py:用來存放各種中間件的文件哄辣。
  3. pipelines.py:用來將items的模型存儲到本地磁盤中。
  4. settings.py:本爬蟲的一些配置信息(比如請求頭赠尾、多久發(fā)送一次請求力穗、ip代理池等)。
  5. scrapy.cfg:項目的配置文件气嫁。
  6. spiders包:以后所有的爬蟲当窗,都是存放到這個里面。

糗事百科案例Scrapy爬蟲筆記

  1. response是一個‘scrapy.http.response.html.HtmlResponse’對象寸宵⊙旅妫可以執(zhí)行‘xpath’和‘css’語法來提取數(shù)據(jù)元咙。
  2. 提取出來的數(shù)據(jù),是一個‘Selector’或者是一個‘SelectorList’對象巫员。如果想要獲取其中的字符串庶香,那么應(yīng)該執(zhí)行‘getall’或者‘get’方法。
  3. getall方法:獲取‘Selector’中的所有文本简识。返回的是一個列表赶掖。
  4. get方法:獲取‘Selector’中得第一個文本。返回的是一個str類型财异。
  5. 如果數(shù)據(jù)解析回來,要傳給pipeline處理唱遭。那么可以使用‘yield’來返回戳寸。或者是收集所有的item拷泽,最后統(tǒng)一使用return返回疫鹊。
  6. item:建議在‘items.py’中定義好模型。以后就不要使用字典司致。
  7. pipeline:這個是專門用來保存數(shù)據(jù)的拆吆。其中有三個方法時會經(jīng)常用到:
    *‘open_spider(self, spider)’:當爬蟲打開的時候執(zhí)行。
    *‘process_item(self, item, spider)’:當爬蟲有item傳過來的時候被調(diào)用脂矫。
    *‘close_spider(self, spider)’:當爬蟲關(guān)閉的時候執(zhí)行枣耀。
    要激活pipeline,應(yīng)該在‘settings.py’中庭再,設(shè)置‘ITEM_PIPELINES’捞奕。

JsonItemExporter和JsonLinesItemExporter:

保存json數(shù)據(jù)的時候,可以使用這兩個類拄轻,讓操作變得更簡單颅围。

  1. ‘JsonItemExporter’:每次把數(shù)據(jù)添加到內(nèi)存中。最后統(tǒng)一寫入到磁盤中恨搓。優(yōu)點:存儲的數(shù)據(jù)滿足json規(guī)則的數(shù)據(jù)院促。缺點:當數(shù)據(jù)量比較大時,內(nèi)存消耗嚴重斧抱。示例代碼如下:
from scrapy.exporters import JsonItemExporter

    class QsbkPipeline(object):
        def __init__(self):
            self.fp = open("joke.json", "wb")
            self.exporter = JsonItemExporter(self.fp, ensure_ascii=False, encoding='utf-8')
            self.exporter.start_exporting()
    
        def open_spider(self, spider):
            print("爬蟲開始了")
    
        def process_item(self, item, spider):
            self.exporter.export_item(item)
            return item
    
        def close_spider(self, spider):
            self.exporter.finish_exporting()
            self.fp.close()
            print("爬蟲結(jié)束了")
  1. ‘JsonLinesItemExporter’:每次調(diào)用‘export_item’的時候就把這個item存儲到硬盤中常拓。優(yōu)點:內(nèi)存消耗低,數(shù)據(jù)安全性高辉浦。缺點:每一個字典是一行墩邀,整個文件不是一個滿足json格式的文件。示例代碼如下:
from scrapy.exporters import JsonLinesItemExporter

    class QsbkPipeline(object):
        def __init__(self):
            self.fp = open("joke.json", "wb")
            self.exporter = JsonLinesItemExporter(self.fp, ensure_ascii=False, encoding='utf-8')
    
        def open_spider(self, spider):
            print("爬蟲開始了")
    
        def process_item(self, item, spider):
            self.exporter.export_item(item)
            return item
    
        def close_spider(self, spider):
            self.fp.close()
            print("爬蟲結(jié)束了")
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末盏浙,一起剝皮案震驚了整個濱河市眉睹,隨后出現(xiàn)的幾起案子荔茬,更是在濱河造成了極大的恐慌,老刑警劉巖竹海,帶你破解...
    沈念sama閱讀 218,640評論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件慕蔚,死亡現(xiàn)場離奇詭異,居然都是意外死亡斋配,警方通過查閱死者的電腦和手機孔飒,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,254評論 3 395
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來艰争,“玉大人坏瞄,你說我怎么就攤上這事∷ψ浚” “怎么了鸠匀?”我有些...
    開封第一講書人閱讀 165,011評論 0 355
  • 文/不壞的土叔 我叫張陵,是天一觀的道長逾柿。 經(jīng)常有香客問我缀棍,道長,這世上最難降的妖魔是什么机错? 我笑而不...
    開封第一講書人閱讀 58,755評論 1 294
  • 正文 為了忘掉前任爬范,我火速辦了婚禮,結(jié)果婚禮上弱匪,老公的妹妹穿的比我還像新娘青瀑。我一直安慰自己,他們只是感情好萧诫,可當我...
    茶點故事閱讀 67,774評論 6 392
  • 文/花漫 我一把揭開白布狱窘。 她就那樣靜靜地躺著,像睡著了一般财搁。 火紅的嫁衣襯著肌膚如雪蘸炸。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,610評論 1 305
  • 那天尖奔,我揣著相機與錄音搭儒,去河邊找鬼。 笑死提茁,一個胖子當著我的面吹牛淹禾,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播茴扁,決...
    沈念sama閱讀 40,352評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼铃岔,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起毁习,我...
    開封第一講書人閱讀 39,257評論 0 276
  • 序言:老撾萬榮一對情侶失蹤智嚷,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后纺且,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體盏道,經(jīng)...
    沈念sama閱讀 45,717評論 1 315
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,894評論 3 336
  • 正文 我和宋清朗相戀三年载碌,在試婚紗的時候發(fā)現(xiàn)自己被綠了猜嘱。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,021評論 1 350
  • 序言:一個原本活蹦亂跳的男人離奇死亡嫁艇,死狀恐怖朗伶,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情步咪,我是刑警寧澤论皆,帶...
    沈念sama閱讀 35,735評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站歧斟,受9級特大地震影響纯丸,放射性物質(zhì)發(fā)生泄漏偏形。R本人自食惡果不足惜静袖,卻給世界環(huán)境...
    茶點故事閱讀 41,354評論 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望俊扭。 院中可真熱鬧队橙,春花似錦、人聲如沸萨惑。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,936評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽庸蔼。三九已至解总,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間姐仅,已是汗流浹背花枫。 一陣腳步聲響...
    開封第一講書人閱讀 33,054評論 1 270
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留掏膏,地道東北人劳翰。 一個月前我還...
    沈念sama閱讀 48,224評論 3 371
  • 正文 我出身青樓,卻偏偏與公主長得像馒疹,于是被迫代替她去往敵國和親佳簸。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 44,974評論 2 355