requests,selenium,xpath,bs4

request:
Requests 繼承了urllib的所有特性逊桦。Requests支持HTTP連接保持和連接池,支持使用cookie保持會話抑进,支持文件上傳强经,支持自動確定響應內容的編碼,支持國際化的URL和 POST 數(shù)據(jù)自動編碼单匣。
requests 的底層實現(xiàn)其實就是 urllib
使用response.text 時夕凝,Requests 會基于 HTTP 響應的文本編碼自動解碼響應內容,大多數(shù) Unicode 字符集都能被無縫地解碼户秤。
使用response.content 時,返回的是服務器響應數(shù)據(jù)的原始二進制字節(jié)流逮矛,可以用來保存圖片等二進制文件鸡号。
import requests
params = {'wd': '孫悟空'}
url = 'http://www.baidu.com/s?'
headers = {
'User-Agent': 'Mozilla / 5.0(X11;Ubuntu;Linuxx86_64;rv: 54.0) Gecko / 20100101Firefox / 54.0'
}

發(fā)起get請求

response = requests.get(url=url, headers=headers, params=params)

返回解碼后內容

content = response.text

獲取

print(content)

返回二進制

content = response.content.decode()

返回響應碼

print(response.status_code)

請求頭

print(response.request.headers)

返回當前編碼格式

print(response.encoding)

查看響應碼

print(response.status_code)
with open('baidu.html', 'w') as f:
f.write(content)

對于 POST 請求來說,我們一般需要為它增加一些參數(shù)须鼎。那么最基本的傳參方法可以利用 data 這個參數(shù)鲸伴。
import requests

req_url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc& sessionFrom=null"

分析表單數(shù)據(jù)

formdata = {
'i': '你好',
'from': 'AUTO',
'to': 'AUTO',
'smartresult': 'dict',
'client': 'fanyideskweb',
'doctype': 'json',
'version': '2.1',
'keyfrom': 'fanyi.web',
'action': 'FY_BY_CLICKBUTTION',
'typoResult': 'false',
}

添加請求頭

req_header = {
'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'}

response = requests.post(
req_url,
data = formdata,
headers = req_header)

print (response.text)

如果是json文件可以直接顯示

print (response.json())

xpath:
XPath (XML Path Language) 是一門在 XML 文檔中查找信息的語言,可用來在 XML 文檔中對元素和屬性進行遍歷晋控。
import requests
import re
import time
import urllib.parse
from lxml import etree

class MeiNv():
def init(self):
self.url = 'http://www.tieba.baidu.com/category/40076/?page='

    self.headers = {
    'User-Agent': 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:54.0) Gecko/20100101 Firefox/54.0'

}

def loadpage(self, url):
response = requests.get(url=self.url)
html = response.content.decode('utf-8')

with open('baidu.html', 'w') as f:
    f.write(html)

#html轉成xml
content = etree.HTML(html)
# print(content)
url_list = content.xpath(
    '//div[@class="threadlist_lz clearfix"]/div[@class="threadlist_title pull_left j_th_tit "]/a/@href'
)
# print(url_list)
for detail_url in url_list:
    full_url = 'http://tieba.baidu.com' + detail_url
    self.detail(full_url)

詳情頁

def detail(self, url):
response = requests.get(url=url)
html = response.content.decode('utf-8')
content = etree.HTML(html)
img_list = content.xpath(
'//img[@class="BDE_Image"]/@src'
)
for img in img_list:
self.download(img)

下載

def download(self, url):
response = requests.get(url=url)
#無需decode
self.save(response.content, url)

保存

def save(self, content, img_url):
filename = 'tieba/' + img_url[-10:] + '.jpg'
print('正在下載' + filename)
with open(filename, 'wb') as f:
f.write(content)

def main(self):
kw = input('請輸入網址')
start = int(input('輸入起始頁'))
end = int(input('輸入終止頁'))
for i in range(start, end + 1):
#拼接
full_url = self.url + 'f?' + 'kw=' + kw + '&' + 'pn=' + str((i-1)*50)
self.loadpage(full_url)

if name == 'main':
mn = MeiNv()
mn.main()

bs4:
和 lxml 一樣汞窗,Beautiful Soup 也是一個HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 數(shù)據(jù)赡译。
lxml 只會局部遍歷仲吏,而Beautiful Soup 是基于HTML DOM的,會載入整個文檔,解析整個DOM樹裹唆,因此時間和內存開銷都會大很多誓斥,所以性能要低于lxml。
BeautifulSoup 用來解析 HTML 比較簡單许帐,API非常人性化劳坑,支持CSS選擇器、Python標準庫中的HTML解析器成畦,也支持 lxml 的 XML解析器距芬。
import requests
from bs4 import BeautifulSoup
import urllib.parse
import jsonpath
import json
import re
class QiDianSpider():
def init(self):
self.url = 'https://www.address.com/all?page=1'
self.headers = {
'User-Agent': 'Mozilla / 5.0(X11;Ubuntu;Linuxx86_64;rv: 54.0) Gecko / 20100101Firefox / 54.0'
}

def loadpage(self, url):
response = requests.get(url=url, headers=self.headers)
bs = BeautifulSoup(response.text, 'lxml')
li_list = bs.select('ul[class="all-img-list cf"] li')
for li in li_list:
title = li.select('div[class="book-mid-info"] h4 a')[0].get_text()
href = urllib.parse.urljoin(response.url, li.select('div[class="book-mid-info"] h4 a')[0].get('href'))
author = li.select('div[class="book-mid-info"] p a')[0].get_text()
type1 = li.select('div[class="book-mid-info"] p a')[1].get_text()
type2 = li.select('div[class="book-mid-info"] p a')[2].get_text()
id = re.search('(\d+)',href).group(1)
print(id)

    dict = {
        'title':title,
        'author':author,
        'type':type1+'.'+type2,
        'href':href,
        'id':id
    }
#     print(dict)
    self.loaddetail(id, dict)

def loaddetail(self, bookid, dict):
response = requests.get(url='https://book.qidian.com/ajax/book/category?_csrfToken=asYDuKBW3fwHjeBdQNcX1GFeE2B9KcEe6dJyt&bookId='+bookid, headers=self.headers)
html = response.content.decode('utf-8')

vs = jsonpath.jsonpath(json.loads(html), '$..vs')
count = sum(jsonpath.jsonpath(json.loads(html), '$..cnt'))
dict['vs'] = vs[0]
with open('qidian.html', 'w') as f:
    f.write(json.dumps(dict,ensure_ascii=False)+'\n')

def start(self):
self.loadpage(self.url)

if name == 'main':
qds = QiDianSpider()
qds.start()

selenium:
Selenium是一個Web的自動化測試工具,最初是為網站自動化測試而開發(fā)的循帐,類型像我們玩游戲用的按鍵精靈蔑穴,可以按指定的命令自動操作,不同是Selenium 可以直接運行在瀏覽器上惧浴,它支持所有主流的瀏覽器(包括PhantomJS這些無界面的瀏覽器)存和。 Selenium 可以根據(jù)我們的指令,讓瀏覽器自動加載頁面衷旅,獲取需要的數(shù)據(jù)捐腿,甚至頁面截屏,或者判斷網站上某些動作是否發(fā)生柿顶。
Selenium 自己不帶瀏覽器茄袖,不支持瀏覽器的功能,它需要與第三方瀏覽器結合在一起才能使用嘁锯。但是我們有時候需要讓它內嵌在代碼中運行宪祥,所以我們可以用一個叫 PhantomJS 的工具代替真實的瀏覽器。
from selenium import webdriver

driver = webdriver.Chrome(executable_path='/home/hu/下載/chromedriver')
driver.get('https://www.baidu.com/')
driver.save_screenshot('baidu.png')
with open('baidu.html', 'w') as f:
f.write(driver.page_source)

PhantomJS
PhantomJS 是一個基于Webkit的“無界面”(headless)瀏覽器家乘,它會把網站加載到內存并執(zhí)行頁面上的 JavaScript蝗羊,因為不會展示圖形界面,所以運行起來比完整的瀏覽器要高效仁锯。
如果我們把 Selenium 和 PhantomJS 結合在一起耀找,就可以運行一個非常強大的網絡爬蟲了,這個爬蟲可以處理 JavaScrip业崖、Cookie野芒、headers,以及任何我們真實用戶需要做的事情双炕。
from selenium import webdriver

browseDriver = webdriver.Phantomjs(executable_path="Phantomjs的驅動路徑")
browseDriver.get('https://www.baidu.com')
print(browseDriver.page_source)
print(browseDriver.current_url)

?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
  • 序言:七十年代末狞悲,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子妇斤,更是在濱河造成了極大的恐慌摇锋,老刑警劉巖丹拯,帶你破解...
    沈念sama閱讀 206,968評論 6 482
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異乱投,居然都是意外死亡咽笼,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,601評論 2 382
  • 文/潘曉璐 我一進店門戚炫,熙熙樓的掌柜王于貴愁眉苦臉地迎上來剑刑,“玉大人,你說我怎么就攤上這事双肤∈┨停” “怎么了?”我有些...
    開封第一講書人閱讀 153,220評論 0 344
  • 文/不壞的土叔 我叫張陵茅糜,是天一觀的道長七芭。 經常有香客問我,道長蔑赘,這世上最難降的妖魔是什么狸驳? 我笑而不...
    開封第一講書人閱讀 55,416評論 1 279
  • 正文 為了忘掉前任,我火速辦了婚禮缩赛,結果婚禮上耙箍,老公的妹妹穿的比我還像新娘。我一直安慰自己酥馍,他們只是感情好辩昆,可當我...
    茶點故事閱讀 64,425評論 5 374
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著旨袒,像睡著了一般汁针。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上砚尽,一...
    開封第一講書人閱讀 49,144評論 1 285
  • 那天施无,我揣著相機與錄音,去河邊找鬼尉辑。 笑死帆精,一個胖子當著我的面吹牛,可吹牛的內容都是我干的隧魄。 我是一名探鬼主播,決...
    沈念sama閱讀 38,432評論 3 401
  • 文/蒼蘭香墨 我猛地睜開眼隘蝎,長吁一口氣:“原來是場噩夢啊……” “哼购啄!你這毒婦竟也來了?” 一聲冷哼從身側響起嘱么,我...
    開封第一講書人閱讀 37,088評論 0 261
  • 序言:老撾萬榮一對情侶失蹤狮含,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體几迄,經...
    沈念sama閱讀 43,586評論 1 300
  • 正文 獨居荒郊野嶺守林人離奇死亡蔚龙,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 36,028評論 2 325
  • 正文 我和宋清朗相戀三年炉菲,在試婚紗的時候發(fā)現(xiàn)自己被綠了嗦枢。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,137評論 1 334
  • 序言:一個原本活蹦亂跳的男人離奇死亡峰锁,死狀恐怖解孙,靈堂內的尸體忽然破棺而出坑填,到底是詐尸還是另有隱情,我是刑警寧澤弛姜,帶...
    沈念sama閱讀 33,783評論 4 324
  • 正文 年R本政府宣布脐瑰,位于F島的核電站,受9級特大地震影響廷臼,放射性物質發(fā)生泄漏苍在。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 39,343評論 3 307
  • 文/蒙蒙 一荠商、第九天 我趴在偏房一處隱蔽的房頂上張望寂恬。 院中可真熱鬧,春花似錦结啼、人聲如沸掠剑。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,333評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽朴译。三九已至,卻和暖如春属铁,著一層夾襖步出監(jiān)牢的瞬間眠寿,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,559評論 1 262
  • 我被黑心中介騙來泰國打工焦蘑, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留盯拱,地道東北人。 一個月前我還...
    沈念sama閱讀 45,595評論 2 355
  • 正文 我出身青樓例嘱,卻偏偏與公主長得像狡逢,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子拼卵,可洞房花燭夜當晚...
    茶點故事閱讀 42,901評論 2 345

推薦閱讀更多精彩內容