1望薄,概述
opener是 urllib.request.OpenerDirector 的實例,我們之前一直都在使用的urlopen泊窘,它是一個特殊的opener(也就是模塊幫我們構(gòu)建好的)疾嗅。
但是基本的urlopen()方法不支持代理珠十、Cookie等其他的 HTTP/HTTPS高級功能。所以要支持這些功能:
1,使用相關(guān)的 Handler處理器 來創(chuàng)建特定功能的處理器對象荠诬;
2,然后通過 urllib.request.build_opener()方法使用這些處理器對象琅翻,創(chuàng)建自定義opener對象;
3,使用自定義的opener對象柑贞,調(diào)用open()方法發(fā)送請求方椎。
4,注意:如果程序里所有的請求都使用自定義的opener,可以使用urllib.request.install_opener() 將自定義的 opener 對象 定義為 全局opener凌外,表示如果之后凡是調(diào)用urlopen辩尊,都將使用這個opener(根據(jù)自己的需求來選擇)。
2,簡單的自定義opener()案例
from urllib import request
def loadPage():
# 1. 創(chuàng)建指定功能的handler處理器對象,也可以是HTTPSHandler
# 指定debuglevel = 1參數(shù)康辑,還會將Debug_Log打開摄欲,
# 這樣程序在執(zhí)行的時候,會把收包和發(fā)包的報頭在屏幕上自動打印出來疮薇,方便調(diào)試胸墙,有時可以省去抓包的工作。
http_handler = request.HTTPHandler(debuglevel=1)
# 2. 使用處理器對象按咒,返回自定義opener對象迟隅,這個opener發(fā)送請求時就具有opener的功能
opener = request.build_opener(http_handler)
# 3. 使用opener.open() 發(fā)送請求
response = opener.open("http://www.baidu.com/")
return response.read()
if __name__ == "__main__":
html = loadPage()
print(html)
3,ProxyHandler處理器(代理設(shè)置)
使用代理IP,這是爬蟲/反爬蟲的第二大招智袭,通常也是最好用的奔缠。
很多網(wǎng)站會檢測某一段時間某個IP的訪問次數(shù)(通過流量統(tǒng)計,系統(tǒng)日志等)吼野,如果訪問次數(shù)多的不像正常人校哎,它會禁止這個IP的訪問。
所以我們可以設(shè)置一些代理服務(wù)器瞳步,每隔一段時間換一個代理闷哆,就算IP被禁止,依然可以換個IP繼續(xù)爬取单起。
urllib2中通過ProxyHandler來設(shè)置使用代理服務(wù)器抱怔。
匿名度:通常情況下,使用免費代理是可以看到真實IP的嘀倒,所以也叫透明代理屈留。透明代理的請求報頭有X-Forwarded-For部分,值是原始客戶端的 IP括儒。
所以绕沈,專業(yè)爬蟲工程師或爬蟲公司會使用高品質(zhì)的私密代理,這些代理通常需要找專門的代理供應(yīng)商購買帮寻,再通過用戶名/密碼授權(quán)使用乍狐。
import os
from urllib import request
def loadPage():
# 獲取指定環(huán)境變量的值
# 代理用戶名
proxy_user = os.environ.get('proxy_user')
print(proxy_user)
# 代理密碼
proxy_password = os.environ.get("proxy_password")
print(proxy_password)
# 代理服務(wù)器IP
proxy_server = os.environ.get("proxy_server")
# 請求報頭
headers = {"User-Agent": "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Trident/5.0)"}
# 1. 免費代理,直接使用,但是不穩(wěn)定固逗,可能用不了
# proxy = {"http" : "121.232.147.178:9000"}
# 2. 私密代理浅蚪,需要配置用戶名和密碼,有兩種配置方式如下:
# proxy = {"http": "197681237:jed7abcgtpc@122.124.189.110:16516"}
# 在ubuntu環(huán)境變量中配置
# 配置路徑:用戶變量:~/.bashrc
proxy = {"http": proxy_user + ":" + proxy_password + "@" + proxy_server}
# 可以處理代理的handler處理器烫罩,參數(shù)是字典類型
proxy_handler = request.ProxyHandler(proxy)
# 構(gòu)建自定義opener對象惜傲,可以處理代理
opener = request.build_opener(proxy_handler)
# 構(gòu)建Request請求
req = request.Request("http://www.baidu.com/", headers=headers)
# 使用自定義opener發(fā)送請求,同時附加代理處理
response = opener.open(req)
print(response.read())
if __name__ == "__main__":
loadPage()
4贝攒,HTTPPasswordMgrWithDefaultRealm()不建議使用盗誊,推薦使用ProxyHandler()
HTTPPasswordMgrWithDefaultRealm()類將創(chuàng)建一個密碼管理對象,用來保存 HTTP 請求相關(guān)的用戶名和密碼隘弊,主要應(yīng)用兩個場景:
驗證代理授權(quán)的用戶名和密碼 (ProxyBasicAuthHandler())
驗證Web客戶端的的用戶名和密碼 (HTTPBasicAuthHandler())
ProxyBasicAuthHandler(代理授權(quán)驗證)
如果我們使用之前的代碼來使用私密代理哈踱,會報 HTTP 407 錯誤,表示代理沒有通過身份驗證:
HTTP Error 407: Proxy Authentication RequiredHTTPBasicAuthHandler處理器(Web客戶端授權(quán)驗證)
有些Web服務(wù)器(包括HTTP/FTP等)的有些頁面并不想提供公共訪問權(quán)限梨熙,或者某些頁面不希望公開开镣,但是可以讓特定的客戶端訪問。那么用戶在訪問時會要求進行身份認(rèn)證咽扇。
爬蟲直接訪問會報HTTP 401 錯誤邪财,表示訪問身份未經(jīng)授權(quán):
HTTP Error 401: Unauthorized
from urllib import request
# 用戶名
user = "test"
# 密碼
passwd = "123456"
# Web服務(wù)器 IP
webserver = "http://192.168.105.29"
# 1. 構(gòu)建一個密碼管理對象陕壹,用來保存需要處理的用戶名和密碼
passwdmgr = request.HTTPPasswordMgrWithDefaultRealm()
# 2. 添加賬戶信息,第一個參數(shù)realm是與遠程服務(wù)器相關(guān)的域信息树埠,一般沒人管它都是寫None糠馆,后面三個參數(shù)分別是 Web服務(wù)器、用戶名弥奸、密碼
passwdmgr.add_password(None, webserver, user, passwd)
# 3. 構(gòu)建一個HTTP基礎(chǔ)用戶名/密碼驗證的HTTPBasicAuthHandler處理器對象榨惠,參數(shù)是創(chuàng)建的密碼管理對象
httpauth_handler = request.HTTPBasicAuthHandler(passwdmgr)
# 4. 通過 build_opener()方法使用這些代理Handler對象,創(chuàng)建自定義opener對象盛霎,參數(shù)包括構(gòu)建的 proxy_handler
opener = request.build_opener(httpauth_handler)
# 5. 可以選擇通過install_opener()方法定義opener為全局opener
request.install_opener(opener)
# 6. 構(gòu)建 Request對象
req = request.Request("http://192.168.105.29")
# 7. 定義opener為全局opener后,可直接使用urlopen()發(fā)送請求
response = request.urlopen(req)
# 8. 打印響應(yīng)內(nèi)容
print(response.read())
5耽装,Cookie
1愤炸,cookie概述
HTTP是無狀態(tài)的面向連接的協(xié)議,服務(wù)器和客戶端的交互僅限于請求/響應(yīng)過程掉奄,結(jié)束之后便斷開规个,在下一次請求時,服務(wù)器會認(rèn)為新的客戶端姓建。為了維護他們之間的鏈接诞仓,讓服務(wù)器知道這是之前某個用戶發(fā)送的請求,則必須在一個地方保存客戶端的信息速兔。
Cookie:通過在 客戶端 記錄的信息確定用戶的身份墅拭。
Session:通過在 服務(wù)器端 記錄的信息確定用戶的身份。
Cookie 是指某些網(wǎng)站服務(wù)器為了辨別用戶身份和進行Session跟蹤涣狗,而儲存在用戶瀏覽器上的文本文件谍婉,Cookie可以保持登錄信息到用戶下次與服務(wù)器的會話。
2镀钓,cookielib庫 和 HTTPCookieProcessor處理器
在Python處理Cookie穗熬,一般是通過cookielib模塊和 urllib.request模塊的HTTPCookieProcessor處理器類一起使用。
cookielib模塊:主要作用是提供用于存儲cookie的對象
HTTPCookieProcessor處理器:主要作用是處理這些cookie對象丁溅,并構(gòu)建handler對象唤蔗。
cookielib 庫
該模塊主要的對象有CookieJar、FileCookieJar窟赏、MozillaCookieJar妓柜、LWPCookieJar。CookieJar:管理HTTP cookie值饰序、存儲HTTP請求生成的cookie领虹、向傳出的HTTP請求添加cookie的對象。整個cookie都存儲在內(nèi)存中求豫,對CookieJar實例進行垃圾回收后cookie也將丟失塌衰。
FileCookieJar (filename,delayload=None,policy=None):從CookieJar派生而來诉稍,用來創(chuàng)建FileCookieJar實例,檢索cookie信息并將cookie存儲到文件中最疆。filename是存儲cookie的文件名杯巨。delayload為True時支持延遲訪問訪問文件,即只有在需要時才讀取文件或在文件中存儲數(shù)據(jù)努酸。
MozillaCookieJar (filename,delayload=None,policy=None):從FileCookieJar派生而來服爷,創(chuàng)建與Mozilla瀏覽器 cookies.txt兼容的FileCookieJar實例。
LWPCookieJar (filename,delayload=None,policy=None):從FileCookieJar派生而來获诈,創(chuàng)建與libwww-perl標(biāo)準(zhǔn)的 Set-Cookie3 文件格式兼容的FileCookieJar實例仍源。
其實大多數(shù)情況下,我們只用CookieJar()舔涎,如果需要和本地文件交互笼踩,就用 MozillaCookjar() 或 LWPCookieJar()
3,cookie屬性
Cookie是http請求報頭中的一種屬性亡嫌,包括:
Cookie名字(Name)
Cookie的值(Value)
Cookie的過期時間(Expires/Max-Age)
Cookie作用路徑(Path)
Cookie所在域名(Domain)嚎于,
使用Cookie進行安全連接(Secure)。
前兩個參數(shù)是Cookie應(yīng)用的必要條件挟冠,另外于购,還包括Cookie大小(不同瀏覽器對Cookie個數(shù)及大小限制是有差異的)知染。
Cookie由變量名和值組成肋僧,根據(jù) Netscape公司的規(guī)定,Cookie格式如下:
Set-Cookie: NAME=VALUE;Expires=DATE;Path=PATH;Domain=DOMAIN_NAME持舆;SECURE
4色瘩,cookie應(yīng)用
案例一:獲取登錄過的百度的cookie
from urllib import request
from http import cookiejar
# 創(chuàng)建CookieJar()對象,可以在內(nèi)存中存儲Cookie
cookiejar = cookiejar.CookieJar()
# 構(gòu)建Cookie處理器對象逸寓,用來處理Cookie請求
cookie_handler = request.HTTPCookieProcessor(cookiejar)
# 構(gòu)建自定義opener居兆,發(fā)送請求后可以自動記錄cookie到cookiejar
opener = request.build_opener(cookie_handler)
# 發(fā)送請求
opener.open("http://www.baidu.com/")
print(cookiejar)
cookie_str = ""
for cookie in cookiejar:
cookie_str += cookie.name + "=" + cookie.value + "; "
print(cookie_str)
# 第一次打印結(jié)果如下:
# <CookieJar[
# <Cookie BAIDUID=7851A9154CA33452B13341B793E2DD682DB:FG=1 for .baidu.com/>,
# <Cookie BIDUPSID=7851A91554CA32B13341B793E2DD682DB for .baidu.com/>,
# <Cookie H_PS_PSSID=1437_251108_1677001_20718 for .baidu.com/>,
# <Cookie PSTM=150036721731 for .baidu.com/>,
# <Cookie BDSVRTM=0 for www.baidu.com/>,
# <Cookie BD_HOME=0 for www.baidu.com/>
# ]>
# 第二次打印結(jié)果
# BAIDUID=D02C0083135C6986F65CC7E74846F2962:FG=1;
# BIDUPSID=D02C0058313C69865F65CC7E74846F2962;
# H_PS_PSSID=14569_21114_17001_20927;
# PSTM=1550037625191;
# BDSVRTM=0;
# BD_HOME=0;
案例二,訪問網(wǎng)站獲得cookie竹伸,并把獲得的cookie保存在cookie文件中
from urllib import request
from http import cookiejar
# 保存cookie到本地磁盤文件名
filename = 'cookie.txt'
# 聲明一個MozillaCookieJar(有save實現(xiàn))對象實例來保存cookie泥栖,之后寫入文件
cookiejar = cookiejar.MozillaCookieJar(filename)
# 使用HTTPCookieProcessor()來創(chuàng)建cookie處理器對象,參數(shù)為CookieJar()對象
handler = request.HTTPCookieProcessor(cookiejar)
# 通過 build_opener() 來構(gòu)建自定義opener
opener = request.build_opener(handler)
# 創(chuàng)建一個請求
response = opener.open("http://www.baidu.com")
# 保存cookie到本地文件勋篓,使用save()方法即可保存cookie
cookiejar.save()
案例三吧享,從文件中獲取cookies,做為請求的一部分去訪問
from urllib import request
from http import cookiejar
# 創(chuàng)建MozillaCookieJar(有l(wèi)oad實現(xiàn))實例對象
cookiejar = cookiejar.MozillaCookieJar()
# 從文件中讀取cookie內(nèi)容到變量
cookiejar.load('cookie.txt')
# 使用HTTPCookieProcessor()來創(chuàng)建cookie處理器對象譬嚣,參數(shù)為CookieJar()對象
handler = request.HTTPCookieProcessor(cookiejar)
# 通過 build_opener() 來構(gòu)建opener
opener = request.build_opener(handler)
response = opener.open("http://www.baidu.com")
with open('xiaoke.html','wb') as f:
f.write(response.read())
案例四钢颂,利用cookiejar和post模擬登錄人人網(wǎng)
from urllib import request, parse
from http import cookiejar
def login(opener):
"""
模擬登錄,返回保存了登錄狀態(tài)的opener
opener: 沒有登錄狀態(tài)Cookie 的 opener對象
"""
# 登錄需要的數(shù)據(jù)拜银,不同的網(wǎng)站登錄參數(shù)會不一樣
# 這是人人網(wǎng)殊鞭,老接口遭垛,只需要用戶名和密碼
"email": "abcdef@163.com",
"password": "123456"
# "token" : "xxxxxx",
}
# 轉(zhuǎn)為url編碼
data = parse.urlencode(fromdata).encode('utf-8')
# 登錄頁面的url地址
url = "http://www.renren.com/PLogin.do"
headers = {"User-Agent": "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Trident/5.0)"}
# 發(fā)送post請求,登錄人人網(wǎng)操灿,并且獲取登錄狀態(tài)的cookie
request_1 = request.Request(url, data=data, headers=headers)
# 發(fā)送請求锯仪,獲取Cookie
opener.open(request_1)
# 返回具有登錄狀態(tài)的opener
return opener
def after_login(login_opener):
"""
附帶登錄狀態(tài)的Cookie,發(fā)送其他頁面的請求
login_opener: 附帶登錄狀態(tài)Cookie 的 opener對象
"""
headers = {"User-Agent": "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Trident/5.0)"}
# 構(gòu)建人人網(wǎng)隨便一個用戶主頁的請求
request_2 = request.Request("http://www.renren.com/882178992/profile", headers=headers)
# 直接訪問這個頁面
response = login_opener.open(request_2)
with open("renren.html", "wb") as f:
f.write(response.read())
if __name__ == "__main__":
# 用來存儲Cookie趾盐,可以動態(tài)更新Cookie
cookiejar = cookiejar.CookieJar()
# 構(gòu)建Cookie處理器對象庶喜,用來處理Cookie請求
cookie_handler = request.HTTPCookieProcessor(cookiejar)
# 構(gòu)建自定義opener,發(fā)送請求后可以自動記錄cookie到cookiejar
opener = request.build_opener(cookie_handler)
# 自己賬戶先登錄救鲤,登錄之后可以拿到帶有cookie信息的opener
login_opener = login(opener)
# 通過這個帶有cookie信息的opener久窟,去訪問其他用戶的信息
after_login(login_opener)