一. Python爬蟲簡單框架

1.參考視頻為:https://www.imooc.com/learn/563

2.簡單爬蟲結(jié)構(gòu)的五個部分:

  • 爬蟲主程序
  • URL管理器
  • HTML下載器
  • HTML解析器
  • HTML輸出器

3.下面以360百科為例酸些,實(shí)際操作一下:

  • 新建5個文件:
- main_spider.py
- url_manager.py
- html_downloader.py
- html_parser.py
- html_outputer.py
  • 首先是main_spider.py:
# -*- coding: utf-8 -*-

import html_downloader
import html_outputer
import html_parser
import url_manager

'''
MainSpider的執(zhí)行思路:
1)實(shí)例化各個模塊
2)把start_url添加到URL管理器
3)進(jìn)入while循環(huán),判斷URL管理器是否有新的URL
    ①如果有:
      a.從URL管理器中取出一個新的URL
      b.開始下載URL對應(yīng)的頁面
      c.對頁面進(jìn)行解析:得到新的URLs和數(shù)據(jù)
      d.把新的URLs添加到URL管理器中
      e.把新的數(shù)據(jù)收集到URL輸出器中
    ②若無:pass
4)已解析的數(shù)據(jù)放入html_outputer處理
5)(可選)添加輔助count埋泵,用于記錄爬蟲執(zhí)行的次數(shù)协怒,控制爬取網(wǎng)頁數(shù)量。
6)(可選)處理異常:try...except...語句
'''


# step2:建立爬蟲的主類
class Mainspider(object):

    #實(shí)例化各個模塊
    def __init__(self):
        self.manager = url_manager.UrlManager()
        self.downloader = html_downloader.HtmlDownloader()
        self.parser = html_parser.HtmlParser()
        self.outputer = html_outputer.HtmlOutputer()

    def crawl(self, start_url):
        count = 1
        self.manager.add_new_url(start_url)   #把start_url添加到URL管理器
        while self.manager.has_new_url():     #進(jìn)入while循環(huán)句狼,判斷URL管理器是否有新的URL
            try:
                # 從URL管理器中取出一個新的URL
                new_url = self.manager.get_new_url()
                print('Crawl{}:{}'.format(count,new_url))     #輔助輸出
                # 開始下載URL對應(yīng)的頁面
                html_text = self.downloader.download(new_url)
                # 對頁面進(jìn)行解析:得到新的URLs和數(shù)據(jù)
                new_urls,new_data = self.parser.parse(new_url,html_text)
                # 把新的URLs添加到URL管理器中
                self.manager.add_new_urls(new_urls)
                # 把新的數(shù)據(jù)收集到URL輸出器中
                self.outputer.collect_data(new_data)

                if count == 100:   ##控制爬取網(wǎng)頁數(shù)量
                    break

                count += 1  #計數(shù)器加一

            except:
                print('Crawl Failed!')

        # 已解析的數(shù)據(jù)放入html_outputer處理渡蜻,本例輸出為html文件碱璃。
        self.outputer.output_html()


# step1:爬蟲總調(diào)度程序
if __name__ == "__main__":
    start_url = "http://book.dangdang.com/"  #爬蟲開始的url
    mspider = Mainspider()
    mspider.crawl(start_url)
  • 接下來分別實(shí)現(xiàn)各個模塊的代碼褐荷,url_manager.py:
# -*- coding: utf-8 -*-

'''
初始化兩個集合勾效,用于存放:未爬取的URL和已爬取的URL。
集合(set)的特點(diǎn)是元素不重復(fù)叛甫,可以用于過濾重復(fù)的URL层宫。
'''

# URL管理器
class UrlManager(object):

    def __init__(self):
        self.uncrawl_urls = set()  #用于存放待抓取的url
        self.crawled_urls = set()  #用于存放已抓取的url

    # 添加新url到待爬取url_list中
    def add_new_url(self, url):
        if url is None:
            return
        # 如果抓取的url不在上述兩個集合中,可認(rèn)為是新的url其监。
        if url not in self.uncrawl_urls and url not in self.crawled_urls:
            self.uncrawl_urls.add(url)

    # 添加urls到待爬取url_list中
    def add_new_urls(self, urls):
        if urls is None or len(urls) == 0:
            return
        for url in urls:
            self.uncrawl_urls.add(url)

    # 判斷待爬取url_list中是否有數(shù)據(jù)
    def has_new_url(self):
        if len(self.uncrawl_urls) != 0:
            return True
        else:
            return False

    # 從url_list中取出url數(shù)據(jù)
    def get_new_url(self):
        url = self.uncrawl_urls.pop()  #pop的作用是從uncrawl_urls中取出url
        self.crawled_urls.add(url)     #將取出的url放入crawled_urls
        return url

html_downloader.py

# -*- coding: utf-8 -*-
import requests
import time

# 開始下載URL對應(yīng)的頁面
class HtmlDownloader(object):

    def download(self, new_url):
        hds = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}
        r = requests.get(new_url,headers = hds)

        if r.status_code != 200:  #用于判斷請求是否成功萌腿。
            return None

        r.encoding = "utf-8"  #(可選)直接設(shè)定編碼方式,出現(xiàn)亂碼時使用
        time.sleep(1)         # 設(shè)置睡眠時間抖苦,給服務(wù)器減負(fù)毁菱。

        return r.text

html_parser.py

# -*- coding: utf-8 -*-
from lxml import etree
import re

class HtmlParser(object):

    def parse(self, url, html_text):
        selector = etree.HTML(html_text)
        new_urls = self._get_new_urls(html_text)
        new_data = self._get_new_data(url,selector)
        return new_urls,new_data

    def _get_new_urls(self,html_text):
        new_urls = set()
        # 格式為:/doc/5925549-6138471.html
        links = re.findall("\/doc\/\d+-\d+\.html",html_text)   #使用正則抓取url
        for link in links:
            url = "https://baike.so.com" + link
            new_urls.add(url)
        return new_urls

    def _get_new_data(self,new_url,selector):
        new_data = {}
        new_data['url'] = new_url
        try:
            new_data['title'] = selector.xpath('///span[@class="title"]/text()')[0]
            new_data['summary'] = selector.xpath('//div[@class="card_content"]/p[1]')[0].xpath('string(.)').strip()
        except:
            new_data['title'] = ""
            new_data['summary'] = ""
        return new_data

html_outputer.py

# -*- coding: utf-8 -*-

class HtmlOutputer(object):

    datas = []

    def collect_data(self, new_data):
        if new_data is None:
            return
        self.datas.append(new_data)

    def output_html(self):
        # 方式一:直接打印
        # for data in self.datas:
        #     print(data['title'],data['summary'])

        # 方式二:輸出html
        with open('output.html','w',encoding='UTF-8') as f:
            f.write('<html>')
            f.write('<head>')
            f.write('<meta charset="utf-8">')
            f.write('<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />')
            f.write('</head>')
            f.write('<body>')
            f.write('<table>')
            for data in self.datas:
                f.write('<tr>')
                f.write('<td>%s</td>' % data['url'])
                f.write('<td>%s</td>' % data['title'])
                f.write('<td>%s</td>' % data['summary'])
                f.write('</tr>')
            f.write('</table>')
            f.write('</body>')
            f.write('</html>')

結(jié)果:


打印結(jié)果

Html輸出

關(guān)于python3編碼問題米死,可以留意以下帖子:
https://foofish.net/how-python3-handle-charset-encoding.html

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市鼎俘,隨后出現(xiàn)的幾起案子哲身,更是在濱河造成了極大的恐慌,老刑警劉巖贸伐,帶你破解...
    沈念sama閱讀 219,427評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異怔揩,居然都是意外死亡捉邢,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,551評論 3 395
  • 文/潘曉璐 我一進(jìn)店門商膊,熙熙樓的掌柜王于貴愁眉苦臉地迎上來伏伐,“玉大人,你說我怎么就攤上這事晕拆∶牯幔” “怎么了?”我有些...
    開封第一講書人閱讀 165,747評論 0 356
  • 文/不壞的土叔 我叫張陵实幕,是天一觀的道長吝镣。 經(jīng)常有香客問我,道長昆庇,這世上最難降的妖魔是什么末贾? 我笑而不...
    開封第一講書人閱讀 58,939評論 1 295
  • 正文 為了忘掉前任,我火速辦了婚禮整吆,結(jié)果婚禮上拱撵,老公的妹妹穿的比我還像新娘。我一直安慰自己表蝙,他們只是感情好拴测,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,955評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著府蛇,像睡著了一般集索。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上欲诺,一...
    開封第一講書人閱讀 51,737評論 1 305
  • 那天抄谐,我揣著相機(jī)與錄音,去河邊找鬼扰法。 笑死蛹含,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的塞颁。 我是一名探鬼主播浦箱,決...
    沈念sama閱讀 40,448評論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼吸耿,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了酷窥?” 一聲冷哼從身側(cè)響起咽安,我...
    開封第一講書人閱讀 39,352評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎蓬推,沒想到半個月后妆棒,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,834評論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡沸伏,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,992評論 3 338
  • 正文 我和宋清朗相戀三年糕珊,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片毅糟。...
    茶點(diǎn)故事閱讀 40,133評論 1 351
  • 序言:一個原本活蹦亂跳的男人離奇死亡红选,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出姆另,到底是詐尸還是另有隱情喇肋,我是刑警寧澤,帶...
    沈念sama閱讀 35,815評論 5 346
  • 正文 年R本政府宣布迹辐,位于F島的核電站蝶防,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏右核。R本人自食惡果不足惜慧脱,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,477評論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望贺喝。 院中可真熱鬧菱鸥,春花似錦、人聲如沸躏鱼。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,022評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽鹊漠。三九已至,卻和暖如春茶行,著一層夾襖步出監(jiān)牢的瞬間躯概,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,147評論 1 272
  • 我被黑心中介騙來泰國打工畔师, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留娶靡,地道東北人。 一個月前我還...
    沈念sama閱讀 48,398評論 3 373
  • 正文 我出身青樓看锉,卻偏偏與公主長得像姿锭,于是被迫代替她去往敵國和親塔鳍。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,077評論 2 355

推薦閱讀更多精彩內(nèi)容