Python 爬蟲入門 (三) 初識scrapy框架

參考資料:
Scrapy中文文檔 http://scrapy-chs.readthedocs.io/zh_CN/stable/index.html
Scrapy研究探索系列 http://blog.csdn.net/u012150179/article/details/32343635

scrapy使用相較于之前的urllib和requests兩個爬蟲庫的使用還是要復雜很多,感覺一些簡單的爬蟲直接用requests+BeautifulSoup來的更簡單更快,為什么不用urllib?又是decode又是encode的挺麻煩,而requests則簡單了許多.而scrapy學會了之后使用起來感覺也比requests簡單方便些,難點是對于一些網(wǎng)站反爬蟲的解決方案,現(xiàn)在這方面還是學的很差,接下來以一個例子簡單了解記錄下學習過程,具體scrapy學習還請參考上面給出的參考資料以及Google吧.

1. 創(chuàng)建爬蟲項目

scrapy startproject collectips #創(chuàng)建一個爬取http://www.xicidaili.com/nn/上面代理ip的項目

創(chuàng)建項目后會自動生成一個目錄,大致如下,其中ips.csv是最后爬取的ip存儲的文件,一開始是沒有的

├── collectips
 ├── collectips
 │   ├── __init__.py
 │   ├── items.py    #設置要爬取的項目的內(nèi)容部分
 │   ├── middlewares.py   #中間部件
 │   ├── pipelines.py     #對生成的item進行處理,若不設置,則默認為原網(wǎng)頁爬取到的內(nèi)容
 │   ├── __pycache__
 │   │   ├── __init__.cpython-35.pyc
 │   │   ├── items.cpython-35.pyc
 │   │   └── settings.cpython-35.pyc
 │   ├── settings.py    #每個項目都有這個文件,可對爬蟲進行相關(guān)設置,如cookies,User-Agent等
 │   └── spiders     #編寫爬蟲主代碼,此文件下可編寫多個爬蟲
 │       ├── __init__.py
 │       ├── ips.csv  #這是最后生成的文件,創(chuàng)建項目時是沒有的
 │       ├── __pycache__
 │       │   ├── __init__.cpython-35.pyc
 │       │   └── xici.cpython-35.pyc
 │       └── xici.py     #編寫爬蟲代碼的文件,非自動生成
 └── scrapy.cfg 

2. 編輯items.py文件,填入想要爬取內(nèi)容的名稱

# -*- coding: utf-8 -*-

# Define here the models for your scraped items
#
# See documentation in:
# http://doc.scrapy.org/en/latest/topics/items.html

import scrapy


class CollectipsItem(scrapy.Item):
    IP = scrapy.Field()      #要爬取的代理ip
    PORT = scrapy.Field()  #ip端口
    DNS_POSITION = scrapy.Field()  #服務器地址
    TYPE = scrapy.Field()    #ip類型,http或者https
    SPEED = scrapy.Field()    #ip響應速度
    LAST_CHECK_TIME = scrapy.Field()    #ip最后更新時間

3. 編寫主要爬蟲

編寫爬蟲時可使用默認模板來生成爬蟲文件,命令行命令為scrapy genspider [options] <name> <domain>

# -*- coding: utf-8 -*-
import scrapy
from collectips.items import CollectipsItem
from scrapy.selector import Selector


class XiciSpider(scrapy.Spider):
    name = "xici"   #爬蟲名稱
    allowed_domains = ["http://www.xicidaili.com"]  #允許爬取的范圍
   
    #重寫start_requests()函數(shù),生成多個要爬取的頁面
    def start_requests(self):   
        reqs = []
        for i in range(1, 21):
            req = scrapy.Request(
                'http://www.xicidaili.com/nn/{}'.format(i))
            reqs.append(req)

        return reqs
    
    #編寫parse()函數(shù)對爬取的網(wǎng)頁內(nèi)容進行分析,提取出想要的部分
    def parse(self, response):
        item = CollectipsItem()
        sel = Selector(response)
        #使用xpath選擇器來選取我們想要的網(wǎng)頁標簽內(nèi)容
        for i in range(2, 102):
            item['IP'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[2]/text()'.format(i)).extract_first()
            item['PORT'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[3]/text()'.format(i)).extract_first()
            item['DNS_POSITION'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[4]/a/text()'.format(i)).extract_first()
            item['TYPE'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[6]/text()'.format(i)).extract_first()
            item['SPEED'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[7]/div/@title'.format(i)).extract_first()
            item['LAST_CHECK_TIME'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[10]/text()'.format(i)).extract_first()
            yield item

編寫爬蟲提取標簽時可采用scrapy自帶的shell工具進行調(diào)試,命令行命令為scrapy shell 'website',若爬取成功,則會返回一個類似ipython的工具,可使用response.headers來查看返回的headers,采用response.xpath('//some/path/title/text()')來調(diào)試提取的內(nèi)容

4. 防止爬蟲被ban的一些方法

  1. 更改設置文件settings.py,禁止cookies
  2. 延長爬取間隔時間delay
  3. 使用多個User-Agent
  4. 使用代理ip

5. 使用chrome插件xpath helper快速獲取目的內(nèi)容的標簽

使用xpath方法獲取目的內(nèi)容標簽時,有點地方瀏覽器會對源html進行更改,加入一個tbody標簽,如果我們使用的xpath標簽中含有tbody,將無法獲取正確內(nèi)容,需要手動刪除tbody這個標簽.
xpath helper能幫助我們快速獲得目的內(nèi)容的標簽,方便提取.使用方法為:打開目的網(wǎng)頁后,Ctrl+shift+X調(diào)出xpath helper的控制臺,將鼠標移至任何目的內(nèi)容位置,按下shift鍵即可在控制臺中查看鼠標所在內(nèi)容的標簽以及其內(nèi)容.

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末怠褐,一起剝皮案震驚了整個濱河市尖啡,隨后出現(xiàn)的幾起案子冗荸,更是在濱河造成了極大的恐慌涡驮,老刑警劉巖蛋欣,帶你破解...
    沈念sama閱讀 222,590評論 6 517
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件础锐,死亡現(xiàn)場離奇詭異瞭郑,居然都是意外死亡胳徽,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 95,157評論 3 399
  • 文/潘曉璐 我一進店門灭美,熙熙樓的掌柜王于貴愁眉苦臉地迎上來推溃,“玉大人,你說我怎么就攤上這事届腐√玻” “怎么了?”我有些...
    開封第一講書人閱讀 169,301評論 0 362
  • 文/不壞的土叔 我叫張陵犁苏,是天一觀的道長硬萍。 經(jīng)常有香客問我,道長傀顾,這世上最難降的妖魔是什么襟铭? 我笑而不...
    開封第一講書人閱讀 60,078評論 1 300
  • 正文 為了忘掉前任,我火速辦了婚禮短曾,結(jié)果婚禮上寒砖,老公的妹妹穿的比我還像新娘。我一直安慰自己嫉拐,他們只是感情好哩都,可當我...
    茶點故事閱讀 69,082評論 6 398
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著婉徘,像睡著了一般漠嵌。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上盖呼,一...
    開封第一講書人閱讀 52,682評論 1 312
  • 那天儒鹿,我揣著相機與錄音,去河邊找鬼几晤。 笑死约炎,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的蟹瘾。 我是一名探鬼主播圾浅,決...
    沈念sama閱讀 41,155評論 3 422
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼憾朴!你這毒婦竟也來了狸捕?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 40,098評論 0 277
  • 序言:老撾萬榮一對情侶失蹤众雷,失蹤者是張志新(化名)和其女友劉穎灸拍,沒想到半個月后做祝,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 46,638評論 1 319
  • 正文 獨居荒郊野嶺守林人離奇死亡株搔,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,701評論 3 342
  • 正文 我和宋清朗相戀三年剖淀,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片纤房。...
    茶點故事閱讀 40,852評論 1 353
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖翻诉,靈堂內(nèi)的尸體忽然破棺而出炮姨,到底是詐尸還是另有隱情,我是刑警寧澤碰煌,帶...
    沈念sama閱讀 36,520評論 5 351
  • 正文 年R本政府宣布舒岸,位于F島的核電站,受9級特大地震影響芦圾,放射性物質(zhì)發(fā)生泄漏蛾派。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 42,181評論 3 335
  • 文/蒙蒙 一个少、第九天 我趴在偏房一處隱蔽的房頂上張望洪乍。 院中可真熱鬧,春花似錦夜焦、人聲如沸壳澳。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,674評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽巷波。三九已至,卻和暖如春卸伞,著一層夾襖步出監(jiān)牢的瞬間抹镊,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,788評論 1 274
  • 我被黑心中介騙來泰國打工荤傲, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留垮耳,地道東北人。 一個月前我還...
    沈念sama閱讀 49,279評論 3 379
  • 正文 我出身青樓弃酌,卻偏偏與公主長得像氨菇,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子妓湘,可洞房花燭夜當晚...
    茶點故事閱讀 45,851評論 2 361

推薦閱讀更多精彩內(nèi)容