1.先提供源碼
2.原因筹陵,想法:
- 其實 github 也有很多類似的工具刀疙, 總是覺得沒有自己寫的用著順手拇厢。
- 比如徒探,我需要把代理分中外2種谈为,那么遲早要自己來動手做的催蝗。
3.下載
- 這里我找到了4個提供免費代理的網(wǎng)站荔仁,其中3個是用 scrapy 寫的酥泞,另外一個是用 requests 寫的砚殿。以后還可以添加新的。
- 全都保存在同一個數(shù)據(jù)集里面芝囤,即 MongDB 的 collections似炎, 以下的數(shù)據(jù)集指的都是這個。
4.校驗
- 標準 :響應時間 timeout=1 , 而且 返回結(jié)果悯姊,與自己真實的 ip 不相等時羡藐,那么就是好用的。
def check_status(self, p):
url = "http://httpbin.org/ip"
resp = requests.get(url, proxies=p, timeout=1)
if resp.status_code == 200 and resp.json()["origin"] != self.real_ip:
print("This is a good one!", p)
- 用哪種多線程:
2.1 aiohttp + asyncio 這個組合我試了悯许,不合適仆嗦。
2.2 multiprocessing.dummy.Pool ,如果遇到一個線程出問題先壕,整體就退出了瘩扼,不行谆甜。
2.3 最終我還是選擇 下面這種寫法:
from concurrent.futures import ThreadPoolExecutor, wait, ALL_COMPLETED
def run(self):
raw_data = self.db[self.coll_name].find()
with ThreadPoolExecutor(max_workers=50) as executor:
future_tasks = [executor.submit(self.check_status, p) for p in raw_data]
wait(future_tasks, return_when=ALL_COMPLETED)
5.保存 (講真的, 這里才是我想說的重點)
- 數(shù)據(jù)集的名稱問題: 如果每次都新建一個數(shù)據(jù)集集绰,那么每次都要起名字店印,而且在別處調(diào)用的話,更是不方便倒慧。
- 直接修原始數(shù)據(jù):使用多線程進行校驗的過程中按摘,把劣質(zhì)的代理刪掉,這一步執(zhí)行是失敗的纫谅。
- 綜上炫贤,我是把有效的代理保存在內(nèi)存中 ,然后再刪掉舊的數(shù)據(jù)集付秕,并使用舊數(shù)據(jù)集的名稱新建一個數(shù)據(jù)集兰珍。
# self.good = []
self.db.drop_collection(self.coll_name)
self.db[self.coll_name].insert_many(self.good)
- 代理分中外,思路也是一樣的询吴。
6.使用
- 在自己需要的時候掠河,可以寫入:
from pymongo import MongoClient
# 也可以更簡潔,寫成列表推導式
data = MongoClient('localhost', 27017)['proxies_db']['proxies_coll'].find()
for dic in data:
print({f'{dic["protocol"].lower()}': f'{dic["protocol"].lower()}://{dic["ip"]}:{dic["port"]}'})
- 或是在 scrapy 中寫一個代理中間件
DOWNLOADER_MIDDLEWARES = {'core_2048.middlewares.ProxyMiddleware': 543,} # stttings.py
from pymongo import MongoClient
class ProxyMiddleware(object):
def __init__(self):
self.data = MongoClient('localhost', 27017)['proxies_db']['world'].find()
self.proxies = [f'{dic["protocol"].lower()}://{dic["ip"]}:{dic["port"]}' for dic in self.data]
def process_request(self, request, spider):
proxy = random.choice(self.proxies)
request.meta['proxy'] = proxy