爬蟲小技巧(1):約束和常用手段

約束

Python泉蝌、 Java歇万、 PHP揩晴、 C#、 Go 等語言都可以實(shí)現(xiàn)爬蟲贪磺,但是在爬取網(wǎng)站信息時(shí)也需要注意一些約束規(guī)范硫兰。國內(nèi)外關(guān)于網(wǎng)絡(luò)數(shù)據(jù)采集相關(guān)的法律法規(guī)在不斷完善中,提倡嚴(yán)格控制網(wǎng)絡(luò)數(shù)據(jù)采集的速度寒锚,降低被采集網(wǎng)站服務(wù)器的負(fù)擔(dān)瞄崇。

爬取一個網(wǎng)站有三種常用的方法,下面分別舉例介紹壕曼,所用的是Python2.7,以后更新文章的時(shí)候兩種版本都可能出現(xiàn),學(xué)習(xí)還是需要有所輸出的等浊,好記性不如爛筆頭腮郊,把這些零散的筆記展現(xiàn)出來也算是一個總結(jié)和實(shí)踐了。

注:這里是早期看爬蟲書籍時(shí)候?qū)W習(xí)筆記筹燕,用的是pyhthon 2.7轧飞,升級到3.5版本以后2.X中的urllib2庫發(fā)生了一些變化,變成了urllib庫并被劃分為一些子庫撒踪。

1. 爬取網(wǎng)站地圖

def crawl_sitemap(url):
    # 1. 網(wǎng)站地圖爬蟲
    # 使用示例網(wǎng)站robots.txt文件中發(fā)現(xiàn)的網(wǎng)站地圖來下載所有網(wǎng)頁过咬。為解析網(wǎng)站地圖,會使用一個簡單的正則表達(dá)式制妄,
    # 從<loc>標(biāo)簽中提取出URL(更加robust的方法是CSS selector)
    # download the sitemap file

    sitemap = download(url)
    # extract the sitemap links
    links = re.findall('<loc>(.*?)</loc>', sitemap)
    # download each link
    for link in links:
        html = download(link)
        # scrape html here
        # ...
crawl_sitemap(url_sitemap)

2. 遍歷每個網(wǎng)頁的數(shù)據(jù)庫ID

設(shè)置用戶代理:

# 利用網(wǎng)站結(jié)構(gòu)的弱點(diǎn)掸绞,更加輕松訪問所有內(nèi)容。
# 下面是一些示例國家的URL耕捞,可以看出這些URL只是在結(jié)尾處有區(qū)別衔掸,包括國家名和ID
# 一般情況下web服務(wù)器會忽略這個字符串,只使用ID來匹配數(shù)據(jù)庫中的相關(guān)記錄俺抽,網(wǎng)頁依然可以加載成功敞映。
# http://example.webscraping.com/view/Afghanistan-1
# http://example.webscraping.com/view/Australia-2
# http://example.webscraping.com/view/Brazil-3

# 下面是使用了該技巧的代碼
# itertools.count(start, step)
# 起始參數(shù)(start)默認(rèn)值為0
# 步長(step)默認(rèn)值為1
# 作用: 返回以start開頭的均勻間隔step步長的值
for page in itertools.count(1):
    url = 'http://example.webscraping.com/view/-%d' % page
    html = download(url)
    if html is None:
        break
    else:
        # success -can scrap the result
        pass

# 這段代碼對ID進(jìn)行遍歷直到下載出錯停止,假設(shè)此時(shí)已經(jīng)到達(dá)最后一個國家頁面磷斧。
# 這種實(shí)現(xiàn)方式存在一個缺陷振愿,那就是某些記錄可能已被刪除,數(shù)據(jù)庫ID之間并不是連續(xù)的弛饭。
# 此時(shí)只要訪問某個間隔點(diǎn)爬蟲就會立即退出冕末。下面改進(jìn)代碼,連續(xù)發(fā)生多次下載錯誤后才退出程序
# 但這種爬蟲方式不是高效的做法

# maximum number of consecutive download errors allowed
max_errors = 5
# current number of consecutive download errors
num_errors = 0
for page in itertools.count(1):
    url = 'http://example.webscraping.com/view/-%d' % page
    html = download(url)
    if html is None:
        # recieved an error trying to download this webpage
        num_errors += 1
        if num_errors == max_errors:
            # reached maximum number of
            # consecutive errors so exit
            break
        else:
            # success -can scrape the result
            # ..
            num_errors = 0

3. 跟蹤網(wǎng)頁鏈接

鏈接爬蟲

# 以上兩種技術(shù)只要可用就應(yīng)當(dāng)使其進(jìn)行爬取侣颂,因?yàn)檫@兩種方法最小化了需要下載的網(wǎng)頁數(shù)量栓霜。
# 對于另一些網(wǎng)站,需要讓爬蟲模擬用戶行為横蜒,跟蹤鏈接胳蛮,訪問感興趣的內(nèi)容


def link_crawler(seed_url, link_regex):
    crawl_queue = [seed_url]
    # keep track which URL's have seen before
    seen = set(crawl_queue)
    while crawl_queue:
        url = crawl_queue.pop()
        html = download(url)
        for link in get_links(html):
            # check if link matches expected regex
            if re.match(link_regex, link):
                # from absolute link
                link = urlparse.urljoin(seed_url, link)
                # check if have already seen this link
                if link not in seen:
                    seen.add(link)
                    crawl_queue.append(link)


def get_links(html):
    # Return a list of links from html
    # a regular expression to extract all links from the webpage
    webpage_regex = re.compile('<a[^]>+href=["\'](.*?)]["\']]', re.IGNORECASE)
    # list of all links from the webpage
    return webpage_regex.findall(html)
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末销凑,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子仅炊,更是在濱河造成了極大的恐慌斗幼,老刑警劉巖,帶你破解...
    沈念sama閱讀 207,248評論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件抚垄,死亡現(xiàn)場離奇詭異蜕窿,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)呆馁,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,681評論 2 381
  • 文/潘曉璐 我一進(jìn)店門桐经,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人浙滤,你說我怎么就攤上這事阴挣。” “怎么了纺腊?”我有些...
    開封第一講書人閱讀 153,443評論 0 344
  • 文/不壞的土叔 我叫張陵畔咧,是天一觀的道長。 經(jīng)常有香客問我揖膜,道長誓沸,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 55,475評論 1 279
  • 正文 為了忘掉前任壹粟,我火速辦了婚禮拜隧,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘趁仙。我一直安慰自己虹蓄,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,458評論 5 374
  • 文/花漫 我一把揭開白布幸撕。 她就那樣靜靜地躺著薇组,像睡著了一般。 火紅的嫁衣襯著肌膚如雪坐儿。 梳的紋絲不亂的頭發(fā)上律胀,一...
    開封第一講書人閱讀 49,185評論 1 284
  • 那天,我揣著相機(jī)與錄音貌矿,去河邊找鬼炭菌。 笑死,一個胖子當(dāng)著我的面吹牛逛漫,可吹牛的內(nèi)容都是我干的黑低。 我是一名探鬼主播,決...
    沈念sama閱讀 38,451評論 3 401
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼克握!你這毒婦竟也來了蕾管?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,112評論 0 261
  • 序言:老撾萬榮一對情侶失蹤菩暗,失蹤者是張志新(化名)和其女友劉穎掰曾,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體停团,經(jīng)...
    沈念sama閱讀 43,609評論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡旷坦,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,083評論 2 325
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了佑稠。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片秒梅。...
    茶點(diǎn)故事閱讀 38,163評論 1 334
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖舌胶,靈堂內(nèi)的尸體忽然破棺而出捆蜀,到底是詐尸還是另有隱情,我是刑警寧澤辆琅,帶...
    沈念sama閱讀 33,803評論 4 323
  • 正文 年R本政府宣布,位于F島的核電站这刷,受9級特大地震影響婉烟,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜暇屋,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,357評論 3 307
  • 文/蒙蒙 一似袁、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧咐刨,春花似錦昙衅、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,357評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至联予,卻和暖如春啼县,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背沸久。 一陣腳步聲響...
    開封第一講書人閱讀 31,590評論 1 261
  • 我被黑心中介騙來泰國打工季眷, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人卷胯。 一個月前我還...
    沈念sama閱讀 45,636評論 2 355
  • 正文 我出身青樓子刮,卻偏偏與公主長得像,于是被迫代替她去往敵國和親窑睁。 傳聞我的和親對象是個殘疾皇子挺峡,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,925評論 2 344

推薦閱讀更多精彩內(nèi)容