Requests 繼承了urllib2的所有特性趾疚。Requests支持HTTP連接保持和連接池,支持使用cookie保持會(huì)話以蕴,支持文件上傳糙麦,支持自動(dòng)確定響應(yīng)內(nèi)容的編碼,支持國(guó)際化的 URL 和 POST 數(shù)據(jù)自動(dòng)編碼丛肮。
requests 的底層實(shí)現(xiàn)其實(shí)就是 urllib3喳资,更多請(qǐng)鏈接urllib3開(kāi)源地址和中文文檔 API,安裝方式
pip install requests
基本GET請(qǐng)求
1. 最基本的GET請(qǐng)求可以直接用get方法
response = requests.get("http://www.baidu.com/")
# 也可以這么寫(xiě)
# response = requests.request("get", "http://www.baidu.com/")
2. 添加 headers 和 查詢參數(shù)腾供,可以傳入headers參數(shù)來(lái)增加請(qǐng)求頭中的headers信息仆邓。如果要將參數(shù)放在url中傳遞,可以利用 params 參數(shù)伴鳖。
import requests
kw = {'wd':'長(zhǎng)城'}
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
# params 接收一個(gè)字典或者字符串的查詢參數(shù)节值,字典類(lèi)型自動(dòng)轉(zhuǎn)換為url編碼,不需要urlencode()
response = requests.get("http://www.baidu.com/s?", params = kw, headers = headers)
# 查看響應(yīng)內(nèi)容html榜聂,response.text 返回的是Unicode格式的數(shù)據(jù)
print response.text搞疗,Requests 會(huì)基于 HTTP 響應(yīng)的文本編碼自動(dòng)解碼響應(yīng)內(nèi)容,大多數(shù) Unicode 字符集都能被無(wú)縫地解碼须肆。
# 查看響應(yīng)內(nèi)容匿乃,response.content返回的字節(jié)流數(shù)據(jù)桩皿,使用response.content 時(shí),返回的是服務(wù)器響應(yīng)數(shù)據(jù)的原始二進(jìn)制字節(jié)流幢炸,可以用來(lái)保存圖片等二進(jìn)制文件
print respones.content
# 查看完整url地址
print response.url
# 查看響應(yīng)頭部字符編碼
print response.encoding
# 查看響應(yīng)碼
print response.status_code
- 基本POST請(qǐng)求
最基本的GET請(qǐng)求可以直接用post方法
response = requests.post("http://www.baidu.com/", data = data)
對(duì)于 POST 請(qǐng)求來(lái)說(shuō)泄隔,我們一般需要為它增加一些參數(shù)。那么最基本的傳參方法可以利用 data 這個(gè)參數(shù)宛徊。
import requests
formdata = {
"type":"AUTO",
"i":"i love python",
"doctype":"json",
"xmlVersion":"1.8",
"keyfrom":"fanyi.web",
"ue":"UTF-8",
"action":"FY_BY_ENTER",
"typoResult":"true"
}
url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null"
headers={ "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"}
response = requests.post(url, data = formdata, headers = headers)
print response.text
# 如果是json文件可以直接顯示
print response.json()
- 代理(proxies參數(shù))
import requests
# 根據(jù)協(xié)議類(lèi)型佛嬉,選擇不同的代理
proxies = {
"http": "http://12.34.56.79:9527",
"https": "http://12.34.56.79:9527",
}
response = requests.get("http://www.baidu.com", proxies = proxies)
print response.text
也可以通過(guò)本地環(huán)境變量 HTTP_PROXY 和 HTTPS_PROXY 來(lái)配置代理:
export HTTP_PROXY="http://12.34.56.79:9527"
export HTTPS_PROXY="https://12.34.56.79:9527"
- 私密代理驗(yàn)證(特定格式) 和 Web客戶端驗(yàn)證(auth 參數(shù))
私密代理
import requests
# 如果代理需要使用HTTP Basic Auth,可以使用下面這種格式:
proxy = { "http": "mr_mao_hacker:sffqry9r@61.158.163.130:16816" }
response = requests.get("http://www.baidu.com", proxies = proxy)
print response.text
web客戶端驗(yàn)證
如果是Web客戶端驗(yàn)證闸天,需要添加 auth = (賬戶名, 密碼)
import requests
auth=('test', '123456')
response = requests.get('http://192.168.199.107', auth = auth)
print response.text
- Cookies 和 Sission
Cookies
import requests
response = requests.get("http://www.baidu.com/")
# 1. 返回CookieJar對(duì)象:
cookiejar = response.cookies
# 2. 將CookieJar轉(zhuǎn)為字典:
cookiedict = requests.utils.dict_from_cookiejar(cookiejar)
print cookiejar
print cookiedict
Sission
實(shí)現(xiàn)人人網(wǎng)登錄
import requests
# 1. 創(chuàng)建session對(duì)象暖呕,可以保存Cookie值
sission = requests.session()
# 2. 處理 headers
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
# 3. 需要登錄的用戶名和密碼
data = {"email":"xxxx@163.com", "password":"xxxx"}
# 4. 發(fā)送附帶用戶名和密碼的請(qǐng)求,并獲取登錄后的Cookie值苞氮,保存在sission里
sission.post("http://www.renren.com/PLogin.do", data = data)
# 5. sission包含用戶登錄后的Cookie值湾揽,可以直接訪問(wèn)那些登錄后才可以訪問(wèn)的頁(yè)面
response = sission.get("http://www.renren.com/410043129/profile")
# 6. 打印響應(yīng)內(nèi)容
print response.text
- 處理HTTPS請(qǐng)求 SSL證書(shū)驗(yàn)證
Requests也可以為HTTPS請(qǐng)求驗(yàn)證SSL證書(shū):
1. 要想檢查某個(gè)主機(jī)的SSL證書(shū),你可以使用 verify 參數(shù)(也可以不寫(xiě))
import requests
response = requests.get("https://www.baidu.com/", verify=True)
# 也可以省略不寫(xiě)
# response = requests.get("https://www.baidu.com/")
print r.text
2. 如果SSL證書(shū)驗(yàn)證不通過(guò)笼吟,或者不信任服務(wù)器的安全證書(shū)钝腺,則會(huì)報(bào)出SSLError,解決方法:
import requests
把 verify 設(shè)置為 False 就可以正常請(qǐng)求了赞厕。
response = requests.get("https://www.123067.cn/mormhweb/", verify = False)
print response.text