Python爬蟲之多線程下載程序類電子書

??近段時(shí)間,筆者發(fā)現(xiàn)一個(gè)神奇的網(wǎng)站:http://www.allitebooks.com/ 锯茄,該網(wǎng)站提供了大量免費(fèi)的編程方面的電子書茶没,是技術(shù)愛好者們的福音晚碾。其頁面如下:

image

??那么我們是否可以通過Python來制作爬蟲來幫助我們實(shí)現(xiàn)自動(dòng)下載這些電子書呢格嘁?答案是yes.
??筆者在空閑時(shí)間寫了一個(gè)爬蟲,主要利用urllib.request.urlretrieve()函數(shù)和多線程來下載這些電子書讥蔽。
??首先呢,筆者的想法是先將這些電子書的下載鏈接網(wǎng)址儲存到本地的txt文件中新症,便于永久使用响禽。其Python代碼(Ebooks_spider.py)如下, 該代碼僅下載第一頁的10本電子書作為示例:

# -*- coding:utf-8 -*-
# 本爬蟲用來下載http://www.allitebooks.com/中的電子書
# 本爬蟲將需要下載的書的鏈接寫入txt文件隆嗅,便于永久使用
# 網(wǎng)站http://www.allitebooks.com/提供編程方面的電子書

#  導(dǎo)入必要的模塊
import urllib.request
from bs4 import BeautifulSoup

#  獲取網(wǎng)頁的源代碼
def get_content(url):
    html = urllib.request.urlopen(url)
    content = html.read().decode('utf-8')
    html.close()
    return content

# 將762個(gè)網(wǎng)頁的網(wǎng)址儲存在list中
base_url = 'http://www.allitebooks.com/'
urls = [base_url]
for i in range(2, 762):
    urls.append(base_url + 'page/%d/' % i)

# 電子書列表侯繁,每一個(gè)元素儲存每本書的下載地址和書名
book_list =[]

# 控制urls的數(shù)量,避免書下載過多導(dǎo)致空間不夠!!!
# 本例只下載前3頁的電子書作為演示
# 讀者可以通過修改url[:3]中的數(shù)字,爬取自己想要的網(wǎng)頁書,最大值為762
for url in urls[:1]:
    try:
        # 獲取每一頁書的鏈接
        content = get_content(url)
        soup = BeautifulSoup(content, 'lxml')
        book_links = soup.find_all('div', class_="entry-thumbnail hover-thumb")
        book_links = [item('a')[0]['href'] for item in book_links]
        print('\nGet page %d successfully!' % (urls.index(url) + 1))
    except Exception:
        book_links = []
        print('\nGet page %d failed!' % (urls.index(url) + 1))

    # 如果每一頁書的鏈接獲取成功
    if len(book_links):
        for book_link in book_links:
            # 下載每一頁中的電子書
            try:
                content = get_content(book_link)
                soup = BeautifulSoup(content, 'lxml')
                # 獲取每本書的下載網(wǎng)址
                link = soup.find('span', class_='download-links')
                book_url = link('a')[0]['href']

                # 如果書的下載鏈接獲取成功
                if book_url:
                    # 獲取書名
                    book_name = book_url.split('/')[-1]
                    print('Getting book: %s' % book_name)
                    book_list.append(book_url)
            except Exception as e:
                print('Get page %d Book %d failed'
                      % (urls.index(url) + 1, book_links.index(book_link)))

# 文件夾
directory = 'E:\\Ebooks\\'
# 將書名和鏈接寫入txt文件中丽焊,便于永久使用
with open(directory+'book.txt', 'w') as f:
    for item in book_list:
        f.write(str(item)+'\n')

print('寫入txt文件完畢!')

可以看到咕别,上述代碼主要爬取的是靜態(tài)頁面,因此效率非常高雌贱!運(yùn)行該程序偿短,顯示結(jié)果如下:

image

在book.txt文件中儲存了這10本電子書的下載地址,如下:

image

??接著我們再讀取這些下載鏈接导街,用urllib.request.urlretrieve()函數(shù)和多線程來下載這些電子書纤子。其Python代碼(download_ebook.py)如下:

# -*- coding:utf-8 -*-
# 本爬蟲讀取已寫入txt文件中的電子書的鏈接,并用多線程下載

import time
from concurrent.futures import ThreadPoolExecutor, wait, ALL_COMPLETED
import urllib.request

# 利用urllib.request.urlretrieve()下載PDF文件
def download(url):
    # 書名
    book_name = 'E:\\Ebooks\\'+url.split('/')[-1]
    print('Downloading book: %s'%book_name) # 開始下載
    urllib.request.urlretrieve(url, book_name)
    print('Finish downloading book: %s'%book_name) #完成下載

def main():
    start_time = time.time() # 開始時(shí)間

    file_path = 'E:\\Ebooks\\book.txt' # txt文件路徑
    # 讀取txt文件內(nèi)容泽论,即電子書的鏈接
    with open(file_path, 'r') as f:
        urls = f.readlines()
    urls = [_.strip() for _ in urls]

    # 利用Python的多線程進(jìn)行電子書下載
    # 多線程完成后卡乾,進(jìn)入后面的操作
    executor = ThreadPoolExecutor(len(urls))
    future_tasks = [executor.submit(download, url) for url in urls]
    wait(future_tasks, return_when=ALL_COMPLETED)

    # 統(tǒng)計(jì)所用時(shí)間
    end_time = time.time()
    print('Total cost time:%s'%(end_time - start_time))

main()

運(yùn)行上述代碼,結(jié)果如下:

image

再去文件夾中查看文件:

image

可以看到這10本書都已成功下載,總共用時(shí)327秒误堡,每本書的平均下載時(shí)間為32.7,約半分鐘陪踩,而這些書的大小為87.7MB,可見效率相當(dāng)高的肩狂!
??怎么樣姥饰,看到爬蟲能做這些多有意思的事情,不知此刻的你有沒有心動(dòng)呢列粪?心動(dòng)不如行動(dòng),至理名言~~
??本次代碼已上傳github, 地址為: https://github.com/percent4/Examples-of-Python-Spiders .

注意:本人現(xiàn)已開通兩個(gè)微信公眾號: 用Python做數(shù)學(xué)(微信號為:python_math)以及輕松學(xué)會Python爬蟲(微信號為:easy_web_scrape)力图, 歡迎大家關(guān)注哦~~

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末掺逼,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子赘那,更是在濱河造成了極大的恐慌氯质,老刑警劉巖,帶你破解...
    沈念sama閱讀 222,729評論 6 517
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件拱礁,死亡現(xiàn)場離奇詭異,居然都是意外死亡呢灶,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 95,226評論 3 399
  • 文/潘曉璐 我一進(jìn)店門鲸阻,熙熙樓的掌柜王于貴愁眉苦臉地迎上來缨睡,“玉大人,你說我怎么就攤上這事奖年∏簿剩” “怎么了拾并?”我有些...
    開封第一講書人閱讀 169,461評論 0 362
  • 文/不壞的土叔 我叫張陵嗅义,是天一觀的道長屏歹。 經(jīng)常有香客問我之碗,道長,這世上最難降的妖魔是什么幽纷? 我笑而不...
    開封第一講書人閱讀 60,135評論 1 300
  • 正文 為了忘掉前任博敬,我火速辦了婚禮,結(jié)果婚禮上收恢,老公的妹妹穿的比我還像新娘祭往。我一直安慰自己伦意,他們只是感情好硼补,可當(dāng)我...
    茶點(diǎn)故事閱讀 69,130評論 6 398
  • 文/花漫 我一把揭開白布已骇。 她就那樣靜靜地躺著票编,像睡著了一般奈辰。 火紅的嫁衣襯著肌膚如雪乱豆。 梳的紋絲不亂的頭發(fā)上奖恰,一...
    開封第一講書人閱讀 52,736評論 1 312
  • 那天瑟啃,我揣著相機(jī)與錄音揩尸,去河邊找鬼。 笑死岩榆,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的勇边。 我是一名探鬼主播,決...
    沈念sama閱讀 41,179評論 3 422
  • 文/蒼蘭香墨 我猛地睜開眼识颊,長吁一口氣:“原來是場噩夢啊……” “哼奕坟!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起刃跛,我...
    開封第一講書人閱讀 40,124評論 0 277
  • 序言:老撾萬榮一對情侶失蹤苛萎,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后绊率,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 46,657評論 1 320
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡滤否,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,723評論 3 342
  • 正文 我和宋清朗相戀三年藐俺,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片欲芹。...
    茶點(diǎn)故事閱讀 40,872評論 1 353
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖颈娜,靈堂內(nèi)的尸體忽然破棺而出浙宜,到底是詐尸還是另有隱情,我是刑警寧澤粟瞬,帶...
    沈念sama閱讀 36,533評論 5 351
  • 正文 年R本政府宣布裙品,位于F島的核電站俗批,受9級特大地震影響市怎,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜焰轻,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 42,213評論 3 336
  • 文/蒙蒙 一辱志、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧揩懒,春花似錦、人聲如沸已球。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,700評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽阔蛉。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間苗踪,已是汗流浹背削锰。 一陣腳步聲響...
    開封第一講書人閱讀 33,819評論 1 274
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留器贩,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 49,304評論 3 379
  • 正文 我出身青樓碗啄,卻偏偏與公主長得像稳摄,于是被迫代替她去往敵國和親饲宿。 傳聞我的和親對象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,876評論 2 361

推薦閱讀更多精彩內(nèi)容