爬取今日頭條美女圖片

?

推薦下我自己創(chuàng)建的Python學(xué)習(xí)交流群923414804囚衔,這是Python學(xué)習(xí)交流的地方题篷,不管你是小白還是大牛镇辉,小編都?xì)g迎,不定期分享干貨贴捡,包括我整理的一份適合零基礎(chǔ)學(xué)習(xí)Python的資料和入門教程忽肛。


筆者是頭條的深度使用者,經(jīng)常用頭條完成“看片”大業(yè)烂斋。若不信的話可以試試在頭條搜索街拍屹逛,返回的都是一道道靚麗的風(fēng)景線。

想把圖片存下來汛骂,該怎么辦呢罕模?我們可以用Python爬蟲啊。

1帘瞭、工具

Python3.5淑掌,Sublime Text,Windows 7

2蝶念、分析(第三步有完整代碼)

可以看到搜索結(jié)果默認(rèn)返回了 20 篇文章抛腕,當(dāng)頁面滾動(dòng)到底部時(shí)頭條通過 ajax 加載更多文章,瀏覽器按下 F12 打開調(diào)試工具(我的是 Chrome)媒殉,點(diǎn)擊 Network 選項(xiàng)担敌,嘗試加載更多的文章,可以看到相關(guān)的 http 請(qǐng)求:

?

此次返回Request URL:

http://www.toutiao.com/search_content/?offset=20&format=json&keyword=%E8%A1%97%E6%8B%8D&autoload=true&count=20&cur_tab=1

來試試返回了什么

import json

from urllib import request

url = "http://www.toutiao.com/search_content/?offset=20&format=json&keyword=%E8%A1%97%E6%8B%8D&autoload=true&count=20&cur_tab=1"

with request.urlopen(url) as res:

? ? d = json.loads(res.read().decode())

? ? print(d)

?

發(fā)現(xiàn)我們需要的東西在'data'里廷蓉,打開一篇文章全封,來試試如何下載單篇圖片。

import json

from urllib import request

url = 'http://www.toutiao.com/a6314996711535444226/#p=1'

with request.urlopen(url) as res:

? ? soup = BeautifulSoup(res.read().decode(errors='ignore'), 'html.parser')

? ? article_main = soup.find('div', id='article-main')

? ? photo_list = [photo.get('src') for photo in article_main.find_all('img') if photo.get('src')]

? ? print(photo_list)


?

輸出

['http://p3.pstatp.com/large/159f00010b30d6736512', 'http://p1.pstatp.com/large/1534000488c40143b9ce', 'http://p3.pstatp.com/large/159d0001834ff61ccb8c', 'http://p1.pstatp.com/large/1534000488c1cd02b5ed']

首先用BeautifulSoup解析網(wǎng)頁,通過 find 方法找到 article-main 對(duì)應(yīng)的 div 塊刹悴,在該 div 塊下繼續(xù)使用 find_all 方法搜尋全部的 img 標(biāo)簽行楞,并提取其 src 屬性對(duì)應(yīng)的值,于是我們便獲得了該文章下全部圖片的 URL 列表颂跨。

接下來就是保存圖片敢伸。

photo_url = "http://p3.pstatp.com/large/159f00010b30d6736512"

photo_name = photo_url.rsplit('/', 1)[-1] + '.jpg'

with request.urlopen(photo_url) as res, open(photo_name, 'wb') as f:

? ? f.write(res.read())

基本步驟就是這么多了,整理下爬取流程:

指定查詢參數(shù)恒削,向http://www.toutiao.com/search_content/提交我們的查詢請(qǐng)求池颈。

從返回的數(shù)據(jù)(JSON 格式)中解析出全部文章的 URL,分別向這些文章發(fā)送請(qǐng)求钓丰。

從返回的數(shù)據(jù)(HTML 格式)提取出文章的標(biāo)題和全部圖片鏈接躯砰。

再分別向這些圖片鏈接發(fā)送請(qǐng)求,將返回的圖片輸入保存到本地(E:\jiepai)携丁。

修改查詢參數(shù)琢歇,以使服務(wù)器返回新的文章數(shù)據(jù),繼續(xù)第一步梦鉴。


3李茫、完整代碼

import re

import json

import time

import random

from pathlib import Path

from urllib import parse

from urllib import error

from urllib import request

from datetime import datetime

from http.client import IncompleteRead

from socket import timeout as socket_timeout

from bs4 import BeautifulSoup

def _get_timestamp():

? ? """

? ? 向 http://www.toutiao.com/search_content/ 發(fā)送的請(qǐng)求的參數(shù)包含一個(gè)時(shí)間戳,

? ? 該函數(shù)獲取當(dāng)前時(shí)間戳肥橙,并格式化成頭條接收的格式魄宏。格式為 datetime.today() 返回

? ? 的值去掉小數(shù)點(diǎn)后取第一位到倒數(shù)第三位的數(shù)字。

? ? """

? ? row_timestamp = str(datetime.timestamp(datetime.today()))

? ? return row_timestamp.replace('.', '')[:-3]

def _create_dir(name):

? ? """

? ? 根據(jù)傳入的目錄名創(chuàng)建一個(gè)目錄存筏,這里用到了 python3.4 引入的 pathlib 庫宠互。

? ? """

? ? directory = Path(name)

? ? if not directory.exists():

? ? ? ? directory.mkdir()

? ? return directory

def _get_query_string(data):

? ? """

? ? 將查詢參數(shù)編碼為 url,例如:

? ? data = {

? ? ? ? ? ? 'offset': offset,

? ? ? ? ? ? 'format': 'json',

? ? ? ? ? ? 'keyword': '街拍',

? ? ? ? ? ? 'autoload': 'true',

? ? ? ? ? ? 'count': 20,

? ? ? ? ? ? '_': 1480675595492

? ? }

? ? 則返回的值為:

? ? ?offset=20&format=json&keyword=%E8%A1%97%E6%8B%8D&autoload=true&count=20&_=1480675595492"

? ? """

? ? return parse.urlencode(data)

def get_article_urls(req, timeout=10):

? ? with request.urlopen(req, timeout=timeout) as res:

? ? ? ? d = json.loads(res.read().decode()).get('data')

? ? ? ? if d is None:

? ? ? ? ? ? print("數(shù)據(jù)全部請(qǐng)求完畢...")

? ? ? ? ? ? return

? ? ? ? urls = [article.get('article_url') for article in d if article.get('article_url')]

? ? ? ? return urls

def get_photo_urls(req, timeout=10):

? ? with request.urlopen(req, timeout=timeout) as res:

? ? ? ? # 這里 decode 默認(rèn)為 utf-8 編碼椭坚,但返回的內(nèi)容中含有部分非 utf-8 的內(nèi)容予跌,會(huì)導(dǎo)致解碼失敗

? ? ? ? # 所以我們使用 ignore 忽略這部分內(nèi)容

? ? ? ? soup = BeautifulSoup(res.read().decode(errors='ignore'), 'html.parser')

? ? ? ? article_main = soup.find('div', id='article-main')

? ? ? ? if not article_main:

? ? ? ? ? ? print("無法定位到文章主體...")

? ? ? ? ? ? return

? ? ? ? heading = article_main.h1.string

? ? ? ? if '街拍' not in heading:

? ? ? ? ? ? print("這不是街拍的文章!I凭ァ券册!")

? ? ? ? ? ? return

? ? ? ? img_list = [img.get('src') for img in article_main.find_all('img') if img.get('src')]

? ? ? ? return heading, img_list

def save_photo(photo_url, save_dir, timeout=10):

? ? photo_name = photo_url.rsplit('/', 1)[-1] + '.jpg'

? ? # 這是 pathlib 的特殊操作,其作用是將 save_dir 和 photo_name 拼成一個(gè)完整的路徑巾表。例如:

? ? # save_dir = 'E:\jiepai'

? ? # photo_name = '11125841455748.jpg'

? ? # 則 save_path = 'E:\jiepai\11125841455748.jpg'

? ? save_path = save_dir / photo_name

? ? with request.urlopen(photo_url, timeout=timeout) as res, save_path.open('wb') as f:

? ? ? ? f.write(res.read())

? ? ? ? print('已下載圖片:{dir_name}/{photo_name}汁掠,請(qǐng)求的 URL 為:{url}'

? ? ? ? ? ? ? .format(dir_name=dir_name, photo_name=photo_name, url=a_url))

if __name__ == '__main__':

? ? ongoing = True

? ? offset = 0? # 請(qǐng)求的偏移量,每次累加 20

? ? root_dir = _create_dir('E:\jiepai')? # 保存圖片的根目錄

? ? request_headers = {

? ? ? ? 'Referer': 'http://www.toutiao.com/search/?keyword=%E8%A1%97%E6%8B%8D',

? ? ? ? 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36'

? ? }

? ? while ongoing:

? ? ? ? timestamp = _get_timestamp()

? ? ? ? query_data = {

? ? ? ? ? ? 'offset': offset,

? ? ? ? ? ? 'format': 'json',

? ? ? ? ? ? 'keyword': '街拍',

? ? ? ? ? ? 'autoload': 'true',

? ? ? ? ? ? 'count': 20,? # 每次返回 20 篇文章

? ? ? ? ? ? '_': timestamp

? ? ? ? }

? ? ? ? query_url = 'http://www.toutiao.com/search_content/' + '?' + _get_query_string(query_data)

? ? ? ? article_req = request.Request(query_url, headers=request_headers)

? ? ? ? article_urls = get_article_urls(article_req)

? ? ? ? # 如果不再返回?cái)?shù)據(jù)集币,說明全部數(shù)據(jù)已經(jīng)請(qǐng)求完畢考阱,跳出循環(huán)

? ? ? ? if article_urls is None:

? ? ? ? ? ? break

? ? ? ? # 開始向每篇文章發(fā)送請(qǐng)求

? ? ? ? for a_url in article_urls:

? ? ? ? ? ? # 請(qǐng)求文章時(shí)可能返回兩個(gè)異常,一個(gè)是連接超時(shí) socket_timeout鞠苟,

? ? ? ? ? ? # 另一個(gè)是 HTTPError乞榨,例如頁面不存在

? ? ? ? ? ? # 連接超時(shí)我們便休息一下秽之,HTTPError 便直接跳過。

? ? ? ? ? ? try:

? ? ? ? ? ? ? ? photo_req = request.Request(a_url, headers=request_headers)

? ? ? ? ? ? ? ? photo_urls = get_photo_urls(photo_req)

? ? ? ? ? ? ? ? # 文章中沒有圖片吃既?跳到下一篇文章

? ? ? ? ? ? ? ? if photo_urls is None:

? ? ? ? ? ? ? ? ? ? continue

? ? ? ? ? ? ? ? article_heading, photo_urls = photo_urls

? ? ? ? ? ? ? ? # 這里使用文章的標(biāo)題作為保存這篇文章全部圖片的目錄考榨。

? ? ? ? ? ? ? ? # 過濾掉了標(biāo)題中在 windows 下無法作為目錄名的特殊字符。

? ? ? ? ? ? ? ? dir_name = re.sub(r'[\\/:*?"<>|]', '', article_heading)

? ? ? ? ? ? ? ? download_dir = _create_dir(root_dir / dir_name)

? ? ? ? ? ? ? ? # 開始下載文章中的圖片

? ? ? ? ? ? ? ? for p_url in photo_urls:

? ? ? ? ? ? ? ? ? ? # 由于圖片數(shù)據(jù)以分段形式返回鹦倚,在接收數(shù)據(jù)時(shí)可能拋出 IncompleteRead 異常

? ? ? ? ? ? ? ? ? ? try:

? ? ? ? ? ? ? ? ? ? ? ? save_photo(p_url, save_dir=download_dir)

? ? ? ? ? ? ? ? ? ? except IncompleteRead as e:

? ? ? ? ? ? ? ? ? ? ? ? print(e)

? ? ? ? ? ? ? ? ? ? ? ? continue

? ? ? ? ? ? except socket_timeout:

? ? ? ? ? ? ? ? print("連接超時(shí)了河质,休息一下...")

? ? ? ? ? ? ? ? time.sleep(random.randint(15, 25))

? ? ? ? ? ? ? ? continue

? ? ? ? ? ? except error.HTTPError:

? ? ? ? ? ? ? ? continue

? ? ? ? # 一次請(qǐng)求處理完畢,將偏移量加 20震叙,繼續(xù)獲取新的 20 篇文章掀鹅。

? ? ? ? offset += 20


同理,只需修改代碼媒楼,就可以下載想要的關(guān)鍵詞乐尊,自己動(dòng)手,想啥有啥划址。

?

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末扔嵌,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子夺颤,更是在濱河造成了極大的恐慌痢缎,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,576評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件世澜,死亡現(xiàn)場離奇詭異牺弄,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)宜狐,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,515評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來蛇捌,“玉大人抚恒,你說我怎么就攤上這事÷绨瑁” “怎么了俭驮?”我有些...
    開封第一講書人閱讀 168,017評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵,是天一觀的道長春贸。 經(jīng)常有香客問我混萝,道長,這世上最難降的妖魔是什么萍恕? 我笑而不...
    開封第一講書人閱讀 59,626評(píng)論 1 296
  • 正文 為了忘掉前任逸嘀,我火速辦了婚禮,結(jié)果婚禮上允粤,老公的妹妹穿的比我還像新娘崭倘。我一直安慰自己翼岁,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,625評(píng)論 6 397
  • 文/花漫 我一把揭開白布司光。 她就那樣靜靜地躺著琅坡,像睡著了一般。 火紅的嫁衣襯著肌膚如雪残家。 梳的紋絲不亂的頭發(fā)上榆俺,一...
    開封第一講書人閱讀 52,255評(píng)論 1 308
  • 那天,我揣著相機(jī)與錄音坞淮,去河邊找鬼茴晋。 笑死,一個(gè)胖子當(dāng)著我的面吹牛碾盐,可吹牛的內(nèi)容都是我干的晃跺。 我是一名探鬼主播,決...
    沈念sama閱讀 40,825評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼毫玖,長吁一口氣:“原來是場噩夢啊……” “哼掀虎!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起付枫,我...
    開封第一講書人閱讀 39,729評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤烹玉,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后阐滩,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體二打,經(jīng)...
    沈念sama閱讀 46,271評(píng)論 1 320
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,363評(píng)論 3 340
  • 正文 我和宋清朗相戀三年掂榔,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了继效。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,498評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡装获,死狀恐怖瑞信,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情穴豫,我是刑警寧澤凡简,帶...
    沈念sama閱讀 36,183評(píng)論 5 350
  • 正文 年R本政府宣布,位于F島的核電站精肃,受9級(jí)特大地震影響秤涩,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜司抱,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,867評(píng)論 3 333
  • 文/蒙蒙 一筐眷、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧状植,春花似錦浊竟、人聲如沸怨喘。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,338評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽必怜。三九已至,卻和暖如春后频,著一層夾襖步出監(jiān)牢的瞬間梳庆,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,458評(píng)論 1 272
  • 我被黑心中介騙來泰國打工卑惜, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留膏执,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,906評(píng)論 3 376
  • 正文 我出身青樓露久,卻偏偏與公主長得像更米,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子毫痕,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,507評(píng)論 2 359

推薦閱讀更多精彩內(nèi)容