1.設(shè)置Headers
有些網(wǎng)站不會同意程序直接用上面的方式進行訪問窘拯,如果識別有問題,那么站點根本不會響應(yīng),所以為了完全模擬瀏覽器的工作叁执,我們需要設(shè)置一些Headers 的屬性透且。
首先伤塌,打開我們的瀏覽器茫负,調(diào)試瀏覽器F12米同,我用的是Chrome陷嘴,打開網(wǎng)絡(luò)監(jiān)聽映砖,示意如下,比如知乎灾挨,點登錄之后邑退,我們會發(fā)現(xiàn)登陸之后界面都變化了,出現(xiàn)一個新的界面劳澄,實質(zhì)上這個頁面包含了許許多多的內(nèi)容地技,這些內(nèi)容也不是一次性就加載完成的,實質(zhì)上是執(zhí)行了好多次請求秒拔,一般是首先請求HTML文件莫矗,然后加載JS,CSS 等等砂缩,經(jīng)過多次請求之后作谚,網(wǎng)頁的骨架和肌肉全了,整個網(wǎng)頁的效果也就出來
拆分這些請求庵芭,我們只看一第一個請求妹懒,你可以看到,有個Request URL双吆,還有headers眨唬,頭中包含了許許多多是信息会前,有文件編碼啦,壓縮方式啦匾竿,請求的agent啦等
其中瓦宜,agent就是請求的身份,如果沒有寫入請求身份搂橙,那么服務(wù)器不一定會響應(yīng)歉提,所以可以在headers中設(shè)置agent,例如下面的例子,這個例子只是說明了怎樣設(shè)置的headers区转,小伙伴們看一下設(shè)置
import urllib
import urllib2
url = 'http://www.server.com/login'
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
values = {'username' : 'cqc', 'password' : 'XXXX' }
headers = { 'User-Agent' : user_agent }
data = urllib.urlencode(values)
request = urllib2.Request(url, data, headers)
response = urllib2.urlopen(request)
page = response.read()
這樣苔巨,我們設(shè)置了一個headers,在構(gòu)建request時傳入废离,在請求時侄泽,就加入了headers傳送,服務(wù)器若識別了是瀏覽器發(fā)來的請求蜻韭,就會得到響應(yīng)悼尾。
另外,我們還有對付”反盜鏈”的方式肖方,對付防盜鏈闺魏,服務(wù)器會識別headers中的referer是不是它自己,如果不是俯画,有的服務(wù)器不會響應(yīng)析桥,所以我們還可以在headers中加入referer
例如我們可以構(gòu)建下面的headers
headers = { 'User-Agent' : 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' ,
'Referer':'http://www.zhihu.com/articles' }
同上面的方法,在傳送請求時把headers傳入Request參數(shù)里艰垂,這樣就能應(yīng)付防盜鏈了泡仗。
另外headers的一些屬性,下面的需要特別注意一下:
User-Agent : 有些服務(wù)器或 Proxy 會通過該值來判斷是否是瀏覽器發(fā)出的請求Content-Type : 在使用 REST 接口時猜憎,服務(wù)器會檢查該值娩怎,用來確定 HTTP Body 中的內(nèi)容該怎樣解析。application/xml : 在 XML RPC胰柑,如 RESTful/SOAP 調(diào)用時使用application/json : 在 JSON RPC 調(diào)用時使用application/x-www-form-urlencoded : 瀏覽器提交 Web 表單時使用在使用服務(wù)器提供的 RESTful 或 SOAP 服務(wù)時截亦, Content-Type 設(shè)置錯誤會導致服務(wù)器拒絕服務(wù)
其他的有必要的可以審查瀏覽器的headers內(nèi)容,在構(gòu)建時寫入同樣的數(shù)據(jù)即可柬讨。
2. Proxy(代理)的設(shè)置
urllib2 默認會使用環(huán)境變量 http_proxy 來設(shè)置 HTTP Proxy崩瓤。假如一個網(wǎng)站它會檢測某一段時間某個IP 的訪問次數(shù),如果訪問次數(shù)過多姐浮,它會禁止你的訪問谷遂。所以你可以設(shè)置一些代理服務(wù)器來幫助你做工作葬馋,每隔一段時間換一個代理
下面一段代碼說明了代理的設(shè)置用法
import urllib2
enable_proxy = True
proxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'})
null_proxy_handler = urllib2.ProxyHandler({})
if enable_proxy:
opener = urllib2.build_opener(proxy_handler)
else:
opener = urllib2.build_opener(null_proxy_handler)
urllib2.install_opener(opener)
3.Timeout 設(shè)置
上一節(jié)已經(jīng)說過urlopen方法了卖鲤,第三個參數(shù)就是timeout的設(shè)置肾扰,可以設(shè)置等待多久超時,為了解決一些網(wǎng)站實在響應(yīng)過慢而造成的影響蛋逾。
例如下面的代碼,如果第二個參數(shù)data為空那么要特別指定是timeout是多少集晚,寫明形參,如果data已經(jīng)傳入区匣,則不必聲明偷拔。
import urllib2
response = urllib2.urlopen('http://www.baidu.com', timeout=10)
import urllib2
response = urllib2.urlopen('http://www.baidu.com',data, 10)
4.使用 HTTP 的 PUT 和 DELETE 方法
http協(xié)議有六種請求方法,get,head,put,delete,post,options亏钩,我們有時候需要用到PUT方式或者DELETE方式請求莲绰。
PUT:這個方法比較少見。HTML表單也不支持這個姑丑。本質(zhì)上來講蛤签, PUT和POST極為相似,都是向服務(wù)器發(fā)送數(shù)據(jù)栅哀,但它們之間有一個重要區(qū)別震肮,PUT通常指定了資源的存放位置,而POST則沒有留拾,POST的數(shù)據(jù)存放位置由服務(wù)器自己決定戳晌。DELETE:刪除某一個資源〕杖幔基本上這個也很少見沦偎,不過還是有一些地方比如amazon的S3云服務(wù)里面就用的這個方法來刪除資源。
如果要使用 HTTP PUT 和 DELETE 竞帽,只能使用比較低層的 httplib 庫扛施。雖然如此,我們還是能通過下面的方式屹篓,使 urllib2 能夠發(fā)出 PUT 或DELETE 的請求
import urllib2
request = urllib2.Request(uri, data=data)
request.get_method = lambda: 'PUT' # or 'DELETE'
response = urllib2.urlopen(request)
5.使用DebugLog
可以通過下面的方法把 Debug Log 打開疙渣,這樣收發(fā)包的內(nèi)容就會在屏幕上打印出來
import urllib2
httpHandler = urllib2.HTTPHandler(debuglevel=1)
httpsHandler = urllib2.HTTPSHandler(debuglevel=1)
opener = urllib2.build_opener(httpHandler, httpsHandler)
urllib2.install_opener(opener)
response = urllib2.urlopen('http://www.baidu.com')