爬蟲筆記(7)scrapy入門

1.Scrapy框架

Scrapy是一個異步框架,效率比requests阻塞式編程效率要高慷荔。

2. 安裝

先下載twisted和pywin32

pip3 install scrapy

3.初次使用

  • 新建項目
scrapy startproject dy2018

使用框架的好處就是我們不需要考慮任務(wù)調(diào)度問題汰寓,scrapy還有個特點就是會自動使用瀏覽器設(shè)置的代理吆寨,這個對于內(nèi)網(wǎng)使用非常有意義,還可以方便Fiddler獲取報文信息踩寇。
這里的拿http://www.dy2018.com 作為例子啄清,畢竟前面我們分析過。爬蟲需要繼承自scrapy.Spider俺孙,爬蟲初始鏈接放在start_urls中辣卒,parse函數(shù)作為頁面分析器來解析頁面數(shù)據(jù)和頁面鏈接。parse返回一個生成器睛榄,生成器生成的內(nèi)容只能是dict荣茫,request,none等场靴。
代碼如下:

import scrapy
from bs4 import BeautifulSoup
import re
class Dy2018Spider(scrapy.Spider):
    name = "dy2018"
    # start_urls = [
    #     'http://quotes.toscrape.com/page/1/',
    #     'http://quotes.toscrape.com/page/2/',
    # ]
    root = 'http://www.dy2018.com'
    start_urls = ['http://www.dy2018.com/1/']
    # for i in range(21):
    #     start_urls.append(root+'/'+str(i)+'/')

    def parse(self, response):
        #print(response.body)
        self.logger.info(response.headers)
        if b'Etag' not in response.headers:
            self.logger.info('-----------------------------------------------------------')
            self.logger.info(response.body)
            self.logger.info(type(response.body))
            url = self.geturl(response.body)
            self.logger.info(url)
            yield scrapy.Request(str(url), callback=self.parse)
        else:
            self.logger.info('++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++')
            ret = self.parsepage(response.body)
            self.logger.info(ret)
            # for url in ret['urls']:
            #     print(url)
            #     yield scrapy.Request(str(url), callback=self.parse)
            for d in ret['data']:#不能返回一個list
                yield d

    def geturl(self,html):
        soup = BeautifulSoup(html,'html5lib')
        s = soup.find('script')
        text = s.text
        if text.startswith('window.location='):
            path = self.root + eval(text[len('window.location='):-1])
            return path

    def parsepage(self,html):
        soup = BeautifulSoup(html,'html5lib')
        content = soup.find('div',attrs={'class':'co_content8'})
        pages = content.find('div',attrs={'class':'x'})
        urls = []
        for option in pages.find_all('option'):
            urls.append(self.root+option['value'])
    
        pattern = re.compile(r'《(.+)》')
        tbs = content.find_all('table')
        data = []
        for tb in tbs:
            b = tb.find('b')
            a1 = b.find_all('a')[1]
            title = a1['title']
            href = self.root + a1['href']
            #title = pattern.findall(title)[0]
            data.append({'href':href,'title':title})
        self.logger.info(urls)
        return {'data':data,'urls':urls}    
  • 運行方法
#要進入到dy2018這個工程目錄才能執(zhí)行下面的命令
scrapy crawl dy2018 --logfile 1.txt
  • 調(diào)試的過程
    (1)www.dy2018.com 使用了一些反扒技巧啡莉,前面我們分析過它會返回一個帶腳本的內(nèi)容來檢測是不是爬蟲在運行。前面使用Content-Length來區(qū)分正常頁面和爬蟲頁面旨剥,但是Content-Length在response.headers中卻找不到咧欣,所以這里使用Etag來檢測。當(dāng)然并不是說Content-Length就會被丟失轨帜,其實測試其它網(wǎng)站它是存在的魄咕。
    (2)從代碼中我們可以看到'ETag'前綴是b,這代表字符串的類型是bytes蚌父。在scrapy的函數(shù)中起碼在scrapy.Request第一個參數(shù)是不能傳入bytes類型的哮兰,這里使用str把bytes類型轉(zhuǎn)換為str類型。response中的內(nèi)容也是bytes類型苟弛,在使用中要注意類型轉(zhuǎn)換喝滞。
    (3)www.dy2018.com還有個反爬行為就是User-Agent,我估計是這樣膏秫,因為今天測試的時候發(fā)現(xiàn)反復(fù)會爬到反爬頁面右遭。我們可以在settings.py對這個進行設(shè)置。
#setting.py文件
DEFAULT_REQUEST_HEADERS = {
  'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
  'Accept-Language': 'zh-CN,zh;q=0.8',
  'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36',
}

(4)調(diào)試問題我這里使用的是log文件荔睹,要把調(diào)試信息輸入到文件中要使用self.logger.info函數(shù)狸演。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末言蛇,一起剝皮案震驚了整個濱河市僻他,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌腊尚,老刑警劉巖吨拗,帶你破解...
    沈念sama閱讀 216,843評論 6 502
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異,居然都是意外死亡劝篷,警方通過查閱死者的電腦和手機哨鸭,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,538評論 3 392
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來娇妓,“玉大人像鸡,你說我怎么就攤上這事」。” “怎么了只估?”我有些...
    開封第一講書人閱讀 163,187評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長着绷。 經(jīng)常有香客問我蛔钙,道長,這世上最難降的妖魔是什么荠医? 我笑而不...
    開封第一講書人閱讀 58,264評論 1 292
  • 正文 為了忘掉前任吁脱,我火速辦了婚禮,結(jié)果婚禮上彬向,老公的妹妹穿的比我還像新娘兼贡。我一直安慰自己,他們只是感情好娃胆,可當(dāng)我...
    茶點故事閱讀 67,289評論 6 390
  • 文/花漫 我一把揭開白布紧显。 她就那樣靜靜地躺著,像睡著了一般缕棵。 火紅的嫁衣襯著肌膚如雪孵班。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,231評論 1 299
  • 那天招驴,我揣著相機與錄音篙程,去河邊找鬼。 笑死别厘,一個胖子當(dāng)著我的面吹牛虱饿,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播触趴,決...
    沈念sama閱讀 40,116評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼氮发,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了冗懦?” 一聲冷哼從身側(cè)響起爽冕,我...
    開封第一講書人閱讀 38,945評論 0 275
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎披蕉,沒想到半個月后颈畸,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體乌奇,經(jīng)...
    沈念sama閱讀 45,367評論 1 313
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,581評論 2 333
  • 正文 我和宋清朗相戀三年眯娱,在試婚紗的時候發(fā)現(xiàn)自己被綠了礁苗。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,754評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡徙缴,死狀恐怖试伙,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情于样,我是刑警寧澤迁霎,帶...
    沈念sama閱讀 35,458評論 5 344
  • 正文 年R本政府宣布,位于F島的核電站百宇,受9級特大地震影響考廉,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜携御,卻給世界環(huán)境...
    茶點故事閱讀 41,068評論 3 327
  • 文/蒙蒙 一昌粤、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧啄刹,春花似錦涮坐、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,692評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至昵时,卻和暖如春捷雕,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背壹甥。 一陣腳步聲響...
    開封第一講書人閱讀 32,842評論 1 269
  • 我被黑心中介騙來泰國打工救巷, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人句柠。 一個月前我還...
    沈念sama閱讀 47,797評論 2 369
  • 正文 我出身青樓浦译,卻偏偏與公主長得像,于是被迫代替她去往敵國和親溯职。 傳聞我的和親對象是個殘疾皇子精盅,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,654評論 2 354

推薦閱讀更多精彩內(nèi)容