簡易爬蟲框架(二)

緊接著上回的文章详瑞,來書寫一個Callback并演示一下爬蟲吧。


實例分析

以一個實際的例子為主臣缀,即展示爬取一本小說為例子坝橡。


右鍵獲取xpath

通過xpath的獲取,就可以寫下索引頁面的callback函數(shù)精置,從而產(chǎn)生詳情頁的自定義Request计寇,具體的事項請見上一回文章

def qb5200_index_task(response: Response, spider: Request):
    """
    自定義的任務callback函數(shù)脂倦,這里是index函數(shù)
    :param response: requests返回的數(shù)據(jù)
    :param spider: 自定義的請求
    :return: yeild出新的自定義Request
    """
    html = etree.HTML(response.content.decode('gbk'))
    try:
        all_tr_tags = html.xpath('//div[@id="content"]//tr')
        for tr_tag in all_tr_tags[:2]:  # 請求一本小說番宁,取前兩個element,第一個是表格頭,第二是小說
            td_temp = tr_tag.xpath('./td[@class="odd"]')
            if len(td_temp):
                name = td_temp[0].xpath('./a/text()')[0]
                url = td_temp[0].xpath('./a/@href')[0]
                yield Request(
                    url, name=name, folder=name, pipeline=FolderPipeline,
                    title=name, callback=qb5200_detail_task, headers={'Referer': spider.url},
                    category=DETAIL
                )
    except Exception as e:
        raise e

當拋出新的自定義Request后赖阻,管理器會將新的請求扔進Redis中蝶押,從而在下次的循環(huán)中彈出。

callback的結果處理

下輪循環(huán)彈出新的自定義Request

索引頁的Callback創(chuàng)建完了政供,新生成的請求需要詳情頁的Callback來決定之后的請求走向播聪。

詳情頁的xpath

同樣以第一本小說為例子,寫下如下的詳情頁的Callback:

def qb5200_detail_task(response: Response, spider: Request):
    """
    自定義的任務callback函數(shù)布隔,這里是detail函數(shù)
    :param response: requests返回的數(shù)據(jù)
    :param spider: 自定義的請求
    :return: yeild出新的自定義Request
    """
    html = etree.HTML(response.content.decode('gbk'))
    try:
        base_url = spider.url
        all_td_tags = html.xpath('//table//td')
        for td_tag in all_td_tags:
            a_tag = td_tag.xpath('./a')
            if len(a_tag):
                title = a_tag[0].xpath('./text()')[0]
                folder = title.replace('?', '?')\
                    .replace('!', '稼虎!')\
                    .replace('.', '衅檀。')\
                    .replace('*', 'x')  # 去除創(chuàng)建文件時沖突的特殊字符
                url = a_tag[0].xpath('./@href')
                yield Request(
                    base_url + url[0], name=spider.name, folder=folder, pipeline=FilePipeline,
                    title=title, callback=qb5200_text_task, headers={'Referer': spider.url},
                    category=TEXT
                )
    except Exception as e:
        raise e

注意category設置,這個將影響管理器處理這個請求的方式霎俩。TEXT代表了以文本的方式處理哀军,在管理器中它會這樣處理。

TEXT類別的處理

當然很好奇上述拋出的Request中明明定義了qb5200_text_task這個Callback函數(shù)打却,但是沒有調用杉适。這里是因為保持pipeline存儲的第一個參數(shù)是Response對象,所以將內容的處理放到了pipeline里柳击。

callback的調用處

同時放上最后的qb5200_text_task的代碼:

def qb5200_text_task(response: Response, spider: Request):
    """
    自定義的任務callback函數(shù)猿推,這里是真實數(shù)據(jù)請求函數(shù),目前為針對于全本小說網(wǎng)的text文本
    :param response: requests返回的數(shù)據(jù)
    :param spider: 自定義的請求
    :return: yeild出新的自定義Request
    """
    html = etree.HTML(response.content.decode('gbk'))
    try:
        title_temp = html.xpath('//div[@id="title"]')
        if len(title_temp):
            title = title_temp[0].xpath('./text()')[0]
            content_temp = html.xpath('//div[@id="content"]')
            if len(content_temp):
                content = content_temp[0].xpath('string(.)')
                return {
                    "title": str(title),
                    "content": str(content)
                }
    except Exception as e:
        raise e

最后啟動運行初始代碼:

#!/usr/bin/env python
# -*- coding: utf-8 -*-

"""
 @File       : run.py
 @Time       : 2017/11/7 0007 20:40
 @Author     : Empty Chan
 @Contact    : chen19941018@gmail.com
 @Description: 運行spider
"""
from downloader import HttpDownloader
from manager import Manager
from pipeline import ConsolePipeline
from request import Request
from tasks import qb5200_index_task
from utils import INDEX

if __name__ == '__main__':
    '''定義初始的鏈接請求捌肴,初始化到manager中蹬叭,然后run'''
    req = Request("http://www.qb5200.org/list/3.html", name='qb5200', category=INDEX,
                  pipeline=ConsolePipeline, callback=qb5200_index_task,
                  downloader=HttpDownloader)
    instance = Manager(req)
    instance.run()

結果展示:

爬取完成一本

Callback全部代碼

#!/usr/bin/env python
# -*- coding: utf-8 -*-

"""
 @File       : tasks.py
 @Time       : 2017/10/21 0021 19:27
 @Author     : Empty Chan
 @Contact    : chen19941018@gmail.com
 @Description: 申明任務來執(zhí)行callback, 且必須滿足兩個參數(shù),一個為requests請求的返回值状知,一個是自定義的spider請求
"""
import json
import click
from requests import Response
from lxml import etree
import re
import abc
from log_util import Log
from request import Request
from pipeline import FolderPipeline, ConsolePipeline, FilePipeline
from pipeline import FilePipeline
from utils import TEXT, IMAGE, VIDEO, INDEX, NEXT, DETAIL
qb5200_index_pat = re.compile(r'.*(\d+).*', re.MULTILINE)
qb5200_logger = Log("qb5200")


def qb5200_index_task(response: Response, spider: Request):
    """
    自定義的任務callback函數(shù)秽五,這里是index函數(shù)
    :param response: requests返回的數(shù)據(jù)
    :param spider: 自定義的請求
    :return: yeild出新的自定義Request
    """
    html = etree.HTML(response.content.decode('gbk'))
    try:
        all_tr_tags = html.xpath('//div[@id="content"]//tr')
        for tr_tag in all_tr_tags[:2]:  # 請求一本小說,取前兩個element,第一個是表格頭饥悴,第二是小說
            td_temp = tr_tag.xpath('./td[@class="odd"]')
            if len(td_temp):
                name = td_temp[0].xpath('./a/text()')[0]
                url = td_temp[0].xpath('./a/@href')[0]
                yield Request(
                    url, name=name, folder=name, pipeline=FolderPipeline,
                    title=name, callback=qb5200_detail_task, headers={'Referer': spider.url},
                    category=DETAIL
                )
    except Exception as e:
        raise e


def qb5200_detail_task(response: Response, spider: Request):
    """
    自定義的任務callback函數(shù)坦喘,這里是detail函數(shù)
    :param response: requests返回的數(shù)據(jù)
    :param spider: 自定義的請求
    :return: yeild出新的自定義Request
    """
    html = etree.HTML(response.content.decode('gbk'))
    try:
        base_url = spider.url
        all_td_tags = html.xpath('//table//td')
        for td_tag in all_td_tags:
            a_tag = td_tag.xpath('./a')
            if len(a_tag):
                title = a_tag[0].xpath('./text()')[0]
                folder = title.replace('?', '贸诚?')\
                    .replace('!', '鳍咱!')\
                    .replace('.', '。')\
                    .replace('*', 'x')
                url = a_tag[0].xpath('./@href')
                yield Request(
                    base_url + url[0], name=spider.name, folder=folder, pipeline=FilePipeline,
                    title=title, callback=qb5200_text_task, headers={'Referer': spider.url},
                    category=TEXT
                )
    except Exception as e:
        raise e


def qb5200_text_task(response: Response, spider: Request):
    """
    自定義的任務callback函數(shù),這里是真實數(shù)據(jù)請求函數(shù)希停,目前為針對于全本小說網(wǎng)的text文本
    :param response: requests返回的數(shù)據(jù)
    :param spider: 自定義的請求
    :return: yeild出新的自定義Request
    """
    html = etree.HTML(response.content.decode('gbk'))
    try:
        title_temp = html.xpath('//div[@id="title"]')
        if len(title_temp):
            title = title_temp[0].xpath('./text()')[0]
            content_temp = html.xpath('//div[@id="content"]')
            if len(content_temp):
                content = content_temp[0].xpath('string(.)')
                return {
                    "title": str(title),
                    "content": str(content)
                }
    except Exception as e:
        raise e

有些東西寫得不好,算是很基礎的東西吧筒严,希望后期能夠完善一下扛芽。感謝大家閱讀!8馈叉弦!
放上Github地址。
大家下回見~~

?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
  • 序言:七十年代末藻糖,一起剝皮案震驚了整個濱河市淹冰,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌巨柒,老刑警劉巖樱拴,帶你破解...
    沈念sama閱讀 206,968評論 6 482
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異洋满,居然都是意外死亡晶乔,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,601評論 2 382
  • 文/潘曉璐 我一進店門牺勾,熙熙樓的掌柜王于貴愁眉苦臉地迎上來正罢,“玉大人,你說我怎么就攤上這事驻民》撸” “怎么了?”我有些...
    開封第一講書人閱讀 153,220評論 0 344
  • 文/不壞的土叔 我叫張陵回还,是天一觀的道長裆泳。 經(jīng)常有香客問我,道長柠硕,這世上最難降的妖魔是什么工禾? 我笑而不...
    開封第一講書人閱讀 55,416評論 1 279
  • 正文 為了忘掉前任,我火速辦了婚禮仅叫,結果婚禮上帜篇,老公的妹妹穿的比我還像新娘。我一直安慰自己诫咱,他們只是感情好笙隙,可當我...
    茶點故事閱讀 64,425評論 5 374
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著坎缭,像睡著了一般竟痰。 火紅的嫁衣襯著肌膚如雪签钩。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,144評論 1 285
  • 那天坏快,我揣著相機與錄音铅檩,去河邊找鬼。 笑死莽鸿,一個胖子當著我的面吹牛昧旨,可吹牛的內容都是我干的。 我是一名探鬼主播祥得,決...
    沈念sama閱讀 38,432評論 3 401
  • 文/蒼蘭香墨 我猛地睜開眼兔沃,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了级及?” 一聲冷哼從身側響起乒疏,我...
    開封第一講書人閱讀 37,088評論 0 261
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎饮焦,沒想到半個月后怕吴,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 43,586評論 1 300
  • 正文 獨居荒郊野嶺守林人離奇死亡县踢,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 36,028評論 2 325
  • 正文 我和宋清朗相戀三年转绷,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片硼啤。...
    茶點故事閱讀 38,137評論 1 334
  • 序言:一個原本活蹦亂跳的男人離奇死亡暇咆,死狀恐怖,靈堂內的尸體忽然破棺而出丙曙,到底是詐尸還是另有隱情,我是刑警寧澤其骄,帶...
    沈念sama閱讀 33,783評論 4 324
  • 正文 年R本政府宣布亏镰,位于F島的核電站,受9級特大地震影響拯爽,放射性物質發(fā)生泄漏索抓。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 39,343評論 3 307
  • 文/蒙蒙 一毯炮、第九天 我趴在偏房一處隱蔽的房頂上張望逼肯。 院中可真熱鬧,春花似錦桃煎、人聲如沸篮幢。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,333評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽三椿。三九已至缺菌,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間搜锰,已是汗流浹背伴郁。 一陣腳步聲響...
    開封第一講書人閱讀 31,559評論 1 262
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留蛋叼,地道東北人焊傅。 一個月前我還...
    沈念sama閱讀 45,595評論 2 355
  • 正文 我出身青樓,卻偏偏與公主長得像狈涮,于是被迫代替她去往敵國和親狐胎。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 42,901評論 2 345

推薦閱讀更多精彩內容

  • Spring Cloud為開發(fā)人員提供了快速構建分布式系統(tǒng)中一些常見模式的工具(例如配置管理薯嗤,服務發(fā)現(xiàn)顽爹,斷路器,智...
    卡卡羅2017閱讀 134,601評論 18 139
  • Android 自定義View的各種姿勢1 Activity的顯示之ViewRootImpl詳解 Activity...
    passiontim閱讀 171,522評論 25 707
  • scrapy學習筆記(有示例版) 我的博客 scrapy學習筆記1.使用scrapy1.1創(chuàng)建工程1.2創(chuàng)建爬蟲模...
    陳思煜閱讀 12,655評論 4 46
  • iOS網(wǎng)絡架構討論梳理整理中骆姐。镜粤。。 其實如果沒有APIManager這一層是沒法使用delegate的玻褪,畢竟多個單...
    yhtang閱讀 5,165評論 1 23
  • 若非一番寒徹骨肉渴,哪有梅花撲鼻香,我用歲月釀好酒带射,醉你余生不復憂同规。
    也很美閱讀 151評論 2 8