爬蟲—代理池的維護(hù)一(獲取模塊)

記錄一個(gè)免費(fèi)代理池的維護(hù)识补,主要包含四個(gè)模塊:
獲取模塊:主要負(fù)責(zé)從各個(gè)免費(fèi)代理網(wǎng)站提取出最新發(fā)布的免費(fèi)代理,獲取到本地并解析
存儲(chǔ)模塊:負(fù)責(zé)將獲取模塊獲取到的proxy存儲(chǔ)至redis數(shù)據(jù)庫(kù)
檢測(cè)模塊:負(fù)責(zé)檢測(cè)redis數(shù)據(jù)庫(kù)中proxy的可用代理可不可用代理辫红,并賦以權(quán)重
調(diào)度模塊:負(fù)責(zé)將獲取模塊凭涂、存儲(chǔ)模塊和檢測(cè)模塊關(guān)聯(lián),并封裝

主要涉及知識(shí)點(diǎn):

  • 元類
  • python操作redis數(shù)據(jù)庫(kù)贴妻,redis庫(kù)的使用
  • requests庫(kù)的使用
  • pyquery的使用
  • aiohttp異步http框架的簡(jiǎn)單使用
  • 多線程和多進(jìn)程

獲取模塊

# -*- coding: utf-8 -*-
"""
__author__ = 'bingo'
__date__ = '2019/9/7'
# code is far away from bugs with the god animal protecting
    I love animals. They taste delicious.
             ┏┓   ┏┓
            ┏┛┻━━━┛┻┓
            ┃     ? ┃
            ┃  ┳┛  ┗┳  ┃
            ┃      ┻   ┃
            ┗━┓      ┏━┛
                ┃    ┗━━━┓
                ┃  神獸保 ┣┓
                ┃ 永無(wú)BUG┏┛
                ┗ ┓┏━┳┓┏┛
                  ┃┫┫  ┃┫┫
                  ┗┻┛  ┗┻┛
"""
import random
import asyncio
import requests
import time
import redis
import aiohttp
from pyquery import PyQuery as pq
from redis import ResponseError
from requests import ConnectTimeout
from concurrent.futures import ThreadPoolExecutor
from multiprocessing import Process
from flask import Flask

# 獲取模塊
class ProxyMeta(type):
    def __new__(cls, name, bases, attrs):
        crawl_count = 0
        attrs["__CrawlFunc__"] = []

        # 獲取獲取模塊中用來(lái)爬取代理的所有函數(shù)
        for k, v in attrs.items():
            if k.startswith("crawl_"):
                func = "self.{}()".format(k)
                attrs["__CrawlFunc__"].append(func)
                crawl_count += 1

        # 獲取獲取模塊中用來(lái)爬取代理的函數(shù)數(shù)量
        attrs["__CrawlFuncCount__"] = crawl_count
        return type.__new__(cls, name, bases, attrs)


class CrawlerGetter(object, metaclass=ProxyMeta):

    def __init__(self):
        headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X x.y; rv:42.0) Gecko/20100101 Firefox/42.0'}
        self.headers = headers
        self.proxy_count = 0
        self.db_client = ProxyRedisClient()

    def get_page(self, url, encoding):
        try:
            res = requests.get(url, headers=self.headers, timeout=2.5)
            if res.status_code == 200:
                res.encoding = encoding
                html = res.text
                return html
            else:
                return None
        except ConnectTimeout:
            return None

    def crawl_66daili(self):
        """
        66代理
        :return:
        """
        i = 0
        url = "http://www.66ip.cn/{page}.html"
        for page in range(1, 11):
            html = self.get_page(url.format(page=page), 'gbk')
            if html:
                p = pq(html)
                doc = p(".containerbox table tr:gt(0)")
                for item in doc.items():
                    proxy_ip = item("td:first-child").text()
                    proxy_port = item("td:nth-child(2)").text()
                    if proxy_ip and proxy_port:
                        proxy = ":".join([proxy_ip, proxy_port])
                        i += 1
                        print("【66代理%s】:%s" % (i, proxy))
                        self.proxy_count += 1
                        yield proxy
                    else:
                        pass
            else:
                print("【66代理】獲取代理失敗page:%s" % page)
                continue

    def crawl_iphai(self):
        """
        ip海代理
        :return:
        """
        i = 0
        urls = ["http://www.iphai.com/free/ng", "http://www.iphai.com/free/wg"]
        for url in urls:
            html = self.get_page(url, 'utf8')
            if html:
                p = pq(html)
                doc = p(".table-responsive table tr:gt(0)")
                for item in doc.items():
                    proxy_ip = item("td:first-child").text()
                    proxy_port = item("td:nth-child(2)").text()
                    if proxy_ip and proxy_port:
                        proxy = ":".join([proxy_ip, proxy_port])
                        i += 1
                        print("【IP海代理%s】:%s" % (i, proxy))
                        self.proxy_count += 1
                        yield proxy
                    else:
                        pass
            else:
                print("【IP海代理】獲取代理失敗: %s" % url)
                continue

    def crawl_qiyun(self):
        """
        齊云代理
        :return:
        """
        i = 0
        url = "http://www.qydaili.com/free/?action=china&page={page}"
        for page in range(1, 11):
            html = self.get_page(url.format(page=page), "utf8")
            if html:
                p = pq(html)
                doc = p(".table tbody tr")
                for item in doc.items():
                    proxy_ip = item("td:first-child").text()
                    proxy_port = item("td:nth-child(2)").text()
                    if proxy_ip and proxy_port:
                        proxy = ":".join([proxy_ip, proxy_port])
                        i += 1
                        print("【齊云代理%s】:%s" % (i, proxy))
                        self.proxy_count += 1
                        yield proxy
                    else:
                        pass
            else:
                print("【齊云代理】獲取代理失敗page:%s" % page)
                continue

    def crawl_89daili(self):
        """
        89免費(fèi)代理
        :return:
        """
        i = 0
        url = "http://www.89ip.cn/index_{page}.html"
        for page in range(1, 21):
            html = self.get_page(url.format(page=page), "utf8")
            if html:
                p = pq(html)
                doc = p(".layui-table tbody tr")
                for item in doc.items():
                    proxy_ip = item("td:first-child").text()
                    proxy_port = item("td:nth-child(2)").text()
                    if proxy_ip and proxy_port:
                        proxy = ":".join([proxy_ip, proxy_port])
                        i += 1
                        print("【89免費(fèi)代理%s】:%s" % (i, proxy))
                        self.proxy_count += 1
                        yield proxy
                    else:
                        pass
            else:
                print("【89免費(fèi)代理】獲取代理失敗page:%s" % page)
                continue

    def crawl_kuaidaili(self):
        """
        快代理
        :return:
        """
        i = 0
        url = "https://www.kuaidaili.com/free/inha/{page}/"
        for page in range(1, 11):
            html = self.get_page(url.format(page=page), "utf8")
            if html:
                p = pq(html)
                doc = p("table tbody tr")
                for item in doc.items():
                    proxy_ip = item("td:first-child").text()
                    proxy_port = item("td:nth-child(2)").text()
                    if proxy_ip and proxy_port:
                        proxy = ":".join([proxy_ip, proxy_port])
                        i += 1
                        print("【快代理%s】:%s" % (i, proxy))
                        self.proxy_count += 1
                        yield proxy
                    else:
                        pass
            else:
                print("【快代理】獲取代理失敗page:%s" % page)
                continue

    def crawl_yundaili(self):
        """
        云代理
        :return:
        """
        i = 0
        url = "http://www.ip3366.net/free/?stype=1&page={page}"
        for page in range(1, 8):
            html = self.get_page(url.format(page=page), "gb2312")
            if html:
                p = pq(html)
                doc = p("table tbody tr")
                for item in doc.items():
                    proxy_ip = item("td:first-child").text()
                    proxy_port = item("td:nth-child(2)").text()
                    if proxy_ip and proxy_port:
                        proxy = ":".join([proxy_ip, proxy_port])
                        i += 1
                        print("【云代理%s】:%s" % (i, proxy))
                        self.proxy_count += 1
                        yield proxy
                    else:
                        pass
            else:
                print("【云代理】獲取代理失敗page:%s" % page)
                continue

    def crawl_xicidaili(self):
        """
        西刺代理
        :return:
        """
        i = 0
        url = "https://www.xicidaili.com/nn/{page}"
        for page in range(1, 6):
            html = self.get_page(url.format(page=page), "utf8")
            if html:
                p = pq(html)
                doc = p(".proxies table tr:gt(0)")
                for item in doc.items():
                    proxy_ip = item("td:nth-child(2)").text()
                    proxy_port = item("td:nth-child(3)").text()
                    if proxy_ip and proxy_port:
                        proxy = ":".join([proxy_ip, proxy_port])
                        i += 1
                        print("【西刺代理%s】:%s" % (i, proxy))
                        self.proxy_count += 1
                        yield proxy
                    else:
                        pass
            else:
                print("【西刺代理】獲取代理失敗page:%s" % page)
                continue

    def run(self):
        """
        返回各個(gè)網(wǎng)站爬蟲接口函數(shù)生成器,并以多線程方式存入redis數(shù)據(jù)庫(kù)
        :return:
        """
        crawl_funcs_list = []
        try:
            executor = ThreadPoolExecutor(max_workers=10)
            for crawl_func_name in self.__CrawlFunc__:
                crawl_funcs_list.append(eval(crawl_func_name))
            for crawl_func in crawl_funcs_list:
                executor.submit(self.to_redis_db, crawl_func)
            executor.shutdown()
        except Exception as e:
            print("ERROR:", e)

    def to_redis_db(self, generation):
        """
        接受一個(gè)生成代理ip的生成器切油,將代理存入redis代理池
        :param generation:
        :return:
        """
        proxies_generation = generation
        for proxy in proxies_generation:
            self.db_client.add(proxy)

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市名惩,隨后出現(xiàn)的幾起案子澎胡,更是在濱河造成了極大的恐慌,老刑警劉巖娩鹉,帶你破解...
    沈念sama閱讀 207,113評(píng)論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件攻谁,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡弯予,警方通過查閱死者的電腦和手機(jī)巢株,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,644評(píng)論 2 381
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人困檩,你說(shuō)我怎么就攤上這事祠挫。” “怎么了悼沿?”我有些...
    開封第一講書人閱讀 153,340評(píng)論 0 344
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)蝶柿。 經(jīng)常有香客問我交汤,道長(zhǎng)劫笙,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 55,449評(píng)論 1 279
  • 正文 為了忘掉前任蠕搜,我火速辦了婚禮,結(jié)果婚禮上虫埂,老公的妹妹穿的比我還像新娘斧散。我一直安慰自己栈暇,他們只是感情好色迂,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,445評(píng)論 5 374
  • 文/花漫 我一把揭開白布讲仰。 她就那樣靜靜地躺著趁矾,像睡著了一般毫捣。 火紅的嫁衣襯著肌膚如雪痕慢。 梳的紋絲不亂的頭發(fā)上俺叭,一...
    開封第一講書人閱讀 49,166評(píng)論 1 284
  • 那天,我揣著相機(jī)與錄音泰偿,去河邊找鬼熄守。 笑死,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的裕照。 我是一名探鬼主播攒发,決...
    沈念sama閱讀 38,442評(píng)論 3 401
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼晋南!你這毒婦竟也來(lái)了惠猿?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,105評(píng)論 0 261
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤负间,失蹤者是張志新(化名)和其女友劉穎偶妖,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體政溃,經(jīng)...
    沈念sama閱讀 43,601評(píng)論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡趾访,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,066評(píng)論 2 325
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了董虱。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片扼鞋。...
    茶點(diǎn)故事閱讀 38,161評(píng)論 1 334
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖空扎,靈堂內(nèi)的尸體忽然破棺而出藏鹊,到底是詐尸還是另有隱情,我是刑警寧澤转锈,帶...
    沈念sama閱讀 33,792評(píng)論 4 323
  • 正文 年R本政府宣布盘寡,位于F島的核電站,受9級(jí)特大地震影響撮慨,放射性物質(zhì)發(fā)生泄漏竿痰。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,351評(píng)論 3 307
  • 文/蒙蒙 一砌溺、第九天 我趴在偏房一處隱蔽的房頂上張望影涉。 院中可真熱鬧,春花似錦规伐、人聲如沸蟹倾。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,352評(píng)論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)鲜棠。三九已至,卻和暖如春培慌,著一層夾襖步出監(jiān)牢的瞬間豁陆,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,584評(píng)論 1 261
  • 我被黑心中介騙來(lái)泰國(guó)打工吵护, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留盒音,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 45,618評(píng)論 2 355
  • 正文 我出身青樓祥诽,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親原押。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,916評(píng)論 2 344