Scrapyd部署-API簡(jiǎn)單封裝


__doc__ = ''' Scrapy Api 命令查詢'''

__author__ = 'silva'

import os
import json
import requests
import argparse
from urllib.parse import urljoin

headers = {}

host = ''

current_dir = os.path.abspath(os.path.dirname(__file__))

api_path = {
    'cancel': 'cancel.json',
    'schedule': 'schedule.json',
    'listjobs': 'listjobs.json',
    'status': 'listprojects.json',
    'addversion': 'addversion.json',
    'delversion': 'delversion.json',
    'delproject': 'delproject.json',
    'listspiders': 'listspiders.json',
    'listprojects': 'listprojects.json',
    'listversions': 'listversions.json',
}

class Method(object):

    headers = headers

    def __init__(self, **kwargs):
        self.kwargs = kwargs

    def status(self):
        _path = api_path[self.kwargs['action']]
        return self._fetch(_path)

    def addversion(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        version = self.kwargs.get('version')
        egg_name = self.kwargs.get('egg') + '.egg'
        egg_path = os.path.join(current_dir, 'eggs', project, egg_name)
        with open(egg_path, 'rb') as fp:
            content = fp.read()
            return self._fetch(_path, method="POST", project=project, egg=content, version=version)

    def schedule(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        spiders = self.kwargs.get('spider')
        addjob_list = []
        for spider in spiders:
            rsp = self._fetch(_path, method="POST", project=project, spider=spider)
            addjob_list.append(json.loads(rsp.text))
        return json.dumps(addjob_list)

    def cancel(self):
        # 待測(cè)試
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        jobs = self.kwargs.get('job')
        deljob_list = []
        for job in jobs:
            rsp =  self._fetch(_path, method="POST", project=project, job=job)
            deljob_list.append(json.loads(rsp.text))
        return json.dumps(deljob_list)

    def listprojects(self):
        _path = api_path[self.kwargs['action']]
        return self._fetch(_path)

    def listversions(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        return self._fetch(_path, project=project)

    def listspiders(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        _version = self.kwargs.get('version')
        if _version:
            return self._fetch(_path, project=project, _version=_version)
        return self._fetch(_path, project=project)

    def listjobs(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        return self._fetch(_path, project=project)

    def delversion(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        version = self.kwargs.get('version')
        return self._fetch(_path, method="POST", project=project, version=version)

    def delproject(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        return self._fetch(_path, method="POST", project=project)

    def _fetch(self, path, method='GET', **kwargs):
        '''
        返回響應(yīng)對(duì)象
        '''
        url = urljoin(host, path)
        if self.kwargs.get('headers'):
            self.headers = kwargs.get('headers')
        if method == 'GET':
            rsp = requests.get(url, params=kwargs, headers=self.headers)
        else:
            rsp = requests.post(url, data=kwargs, headers=self.headers)
        return rsp


class ScrapyApp(object):

    def __init__(self, **kwargs):
        self._init_args(**kwargs)
        # 運(yùn)行指定方法
        opt = getattr(Method(**kwargs), self.action)()
        # 查詢結(jié)果
        if opt:
            if isinstance(opt, str):
                print('RESULT:', json.dumps(json.loads(opt), indent=1))
            else:
                print('API:', opt.url)
                print('RESULT:', json.dumps(json.loads(opt.text), indent=1))
        else:
            print('API 查詢出錯(cuò)!')

    def _init_args(self, **kwargs):
        self.action = kwargs.get('action')

def main():
    parser = argparse.ArgumentParser(description=__doc__, add_help=False, formatter_class=argparse.RawDescriptionHelpFormatter)
    parser.add_argument('-h', '--help', dest='help', help='獲取幫助信息', action='store_true', default=False)
    # 通用參數(shù)
    parser.add_argument('-p', '--project', dest='project', help='項(xiàng)目名')
    parser.add_argument('-v', '--version', dest='version', help='版本名')
    parser.add_argument('-e', '--egg', dest='egg', help='項(xiàng)目打包文件名, 不加后綴')
    parser.add_argument('-j', '--job', dest='job', nargs='+', help='調(diào)度中的job id')
    parser.add_argument('-s', '--spider', dest='spider', nargs='+', help='指定spider名稱 (可多選)')
    # 服務(wù)配置
    parser.add_argument('-server', '--server', dest='server', default='127.0.0.1', help='服務(wù)地址 默認(rèn): localhost')
    parser.add_argument('-port', '--port', dest='port', default=6800, help='指定端口 默認(rèn): 6800')
    # 執(zhí)行動(dòng)作分組
    action_option = parser.add_argument_group()
    action_option.add_argument('-status', '--status', dest='action', action='store_const', const='status', help='檢查服務(wù)運(yùn)行狀態(tài)  >> 示例:-status')
    action_option.add_argument('-sd', '--schedule', dest='action', action='store_const', const='schedule', help='schedule 添加調(diào)度任務(wù) >> 示例:-sd -p GovSpider -s jl.gov sh.gov -v 001')
    action_option.add_argument('-av', '--addversion', dest='action',action='store_const', const='addversion',  help='給項(xiàng)目添加版本號(hào), 不存在則創(chuàng)建項(xiàng)目 >> 示例:-av -p Silva -v 001 -egg 001')
    action_option.add_argument('-c', '--cancel', dest='action',action='store_const', const='cancel', help='移除調(diào)度中的spider任務(wù) 示例:-c -p GovSpider -j 2edf71 04db14c')
    action_option.add_argument('-lp', '--listprojects', dest='action',action='store_const', const='listprojects', help='打印已經(jīng)部署的項(xiàng)目列表 >> 示例:-lp ')
    action_option.add_argument('-lv', '--listversions', dest='action',action='store_const', const='listversions', help='打印指定項(xiàng)目的版本列表 >> 示例:-lv -p GovSpider')
    action_option.add_argument('-ls', '--listspiders', dest='action',action='store_const', const='listspiders', help='打印項(xiàng)目版本下的spiders, (_version可選, 默認(rèn)為最新版本) >> 示例:-ls -p GovSpider -v 001')
    action_option.add_argument('-lj', '--listjobs', dest='action',action='store_const', const='listjobs', help='打印項(xiàng)目中spider運(yùn)行詳情信息 >> 示例:-lj -p GovSpider')
    action_option.add_argument('-dv', '--delversion', dest='action',action='store_const', const='delversion', help='刪除已打包的版本 >> 示例:-dv -p GovSpider -v 001')
    action_option.add_argument('-dp', '--delproject', dest='action',action='store_const', const='delproject', help='刪除已創(chuàng)建的項(xiàng)目 >> 示例:-dp -p GovSpider')

    # 詳情參數(shù)分組
    args = parser.parse_args()
    if args.help:
        parser.print_help()
    elif args.action:
        global host
        host = 'http://{0}:{1}/'.format(args.server, args.port)
        print('查詢服務(wù)地址:{}'.format(host))
        ScrapyApp(**args.__dict__)
    else:
        parser.print_usage()

if __name__ == '__main__':
    main()
    # 測(cè)試
    # host = 'http://127.0.0.1:6800/'
    # data = Method(project='GovPolicySpider', action='listjobs').listjobs()
    # print(json.dumps(json.loads(data.text), indent=1))

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖把夸,帶你破解...
    沈念sama閱讀 216,372評(píng)論 6 498
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異铭污,居然都是意外死亡恋日,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,368評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門(mén)嘹狞,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)岂膳,“玉大人,你說(shuō)我怎么就攤上這事磅网√附兀” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 162,415評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵涧偷,是天一觀的道長(zhǎng)傻盟。 經(jīng)常有香客問(wèn)我,道長(zhǎng)嫂丙,這世上最難降的妖魔是什么娘赴? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,157評(píng)論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮跟啤,結(jié)果婚禮上诽表,老公的妹妹穿的比我還像新娘。我一直安慰自己隅肥,他們只是感情好竿奏,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,171評(píng)論 6 388
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著腥放,像睡著了一般泛啸。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上秃症,一...
    開(kāi)封第一講書(shū)人閱讀 51,125評(píng)論 1 297
  • 那天候址,我揣著相機(jī)與錄音,去河邊找鬼种柑。 笑死岗仑,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的聚请。 我是一名探鬼主播荠雕,決...
    沈念sama閱讀 40,028評(píng)論 3 417
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了炸卑?” 一聲冷哼從身側(cè)響起既鞠,我...
    開(kāi)封第一講書(shū)人閱讀 38,887評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎盖文,沒(méi)想到半個(gè)月后损趋,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,310評(píng)論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡椅寺,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,533評(píng)論 2 332
  • 正文 我和宋清朗相戀三年浑槽,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片返帕。...
    茶點(diǎn)故事閱讀 39,690評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡桐玻,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出荆萤,到底是詐尸還是另有隱情镊靴,我是刑警寧澤,帶...
    沈念sama閱讀 35,411評(píng)論 5 343
  • 正文 年R本政府宣布链韭,位于F島的核電站偏竟,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏敞峭。R本人自食惡果不足惜踊谋,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,004評(píng)論 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望旋讹。 院中可真熱鬧殖蚕,春花似錦、人聲如沸沉迹。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,659評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)鞭呕。三九已至蛤育,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間葫松,已是汗流浹背瓦糕。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,812評(píng)論 1 268
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留进宝,地道東北人刻坊。 一個(gè)月前我還...
    沈念sama閱讀 47,693評(píng)論 2 368
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像党晋,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,577評(píng)論 2 353