本篇將開始介紹Python原理砾嫉,更多內容請參考:Python學習指南
為什么要做爬蟲
著名的革命家、思想家窒篱、政治家焕刮、戰(zhàn)略家、社會改革的主要領導人物馬云曾經在2015年提到由IT轉到DT墙杯,何謂DT配并,DT即數據技術,由數據在推倒人們的衣食住行高镐,當今時代是一個大數據時代
溉旋,數據從何而來?
政府機構公開的數據
:中華人民共和國國家統(tǒng)計局數據、世界銀行公開數據州邢、聯合國數據婶溯、納斯達克爬取網絡數據
:如果需要的數據市場上沒有迄委,或者不愿意購買,那么就可以招/做一名爬蟲工程師类少,自己動手豐衣足食叙身。拉勾網Python爬蟲職位
爬蟲是什么?
百度百科:網絡爬蟲
關于Python爬蟲硫狞,我們需要學習的有:
- Python基礎語法學習(基礎知識)
- HTML頁面的內容抓取(數據抓取)
- HTML頁面的數據提取(數據清洗)
- Scrapy框架以及scrapy-redis分布式策略(第三方框架)
- 爬蟲(Spider)信轿、反爬蟲(Anti-Spider)、反反爬蟲(Anti-Anti-Spider)之間的斗爭残吩。财忽。。泣侮。
通用爬蟲和聚焦爬蟲
網絡爬蟲可分為通用爬蟲和聚焦爬蟲兩種即彪。
通用搜索引擎(Search Enging)工作原理
通用網絡爬蟲 從互聯網中搜集網頁,采集信息活尊,這些網頁信息用于為搜索引擎建立索引從而提供支持隶校,它決定著整個引擎系統(tǒng)的內容是否豐富漏益,信息是否及時,因此其性能的優(yōu)劣直接影響著搜索引擎的效果深胳。
第一步:抓取網頁
搜索引擎網絡爬蟲的基本工作流程如下:
- 首先選取一部分的種子URL绰疤,將這些URL放入待抓取URL隊列;
- 取出待抓取URL舞终,解析DNS得到主機的IP轻庆,并將URL對應的網頁下載下來,存儲進已下載網頁庫中敛劝,并且將這些URL放進已抓取URL隊列余爆。
-
分析已抓取URL隊列中的URL,分析其中的其它URL攘蔽,并且將URL放入待抓取URL隊列龙屉,從而進入下一個循環(huán)。满俗。转捕。
搜索引擎如何獲取一個新網站的URL:
- 新網站向搜索引擎主動提交網址:(百度:http://zhanzhang.baidu.com/linksubmit/url)
- 在其他網站上設置一個新網站鏈接(盡可能處于搜索引擎爬蟲爬取范圍)
- 搜索引擎和DNS解析服務商(如DNSPod等)合作,新網站域名將被迅速抓取
但是搜索引擎蜘蛛的爬行是被輸入了一定的規(guī)則的唆垃,它需要遵從一些命令或文件的內容五芝,如標注為nofollow
的鏈接,或者是Robots協議辕万。
Robots協議(也叫爬蟲協議枢步、機器人協議等),全稱是“網絡爬蟲排除標準”(Robots Exclusion Protocol)渐尿,網站通過Robots協議告訴搜索引擎哪些頁面可以抓取醉途,哪些頁面不能抓取,例如:
第二步:數據存儲
搜索引擎通過爬蟲爬取到網頁砖茸,將數據存入原始頁面數據庫隘擎。其中的頁面數據與用戶瀏覽器得到的HTML是完全一樣的。
搜索引擎蜘蛛在抓取頁面時凉夯,也做一定的重復內容檢測货葬,一旦遇到訪問權重很低的網站上有大量抄襲、采集或者復制的內容劲够,很可能就不再爬行震桶。
第三步:預處理
搜索引擎將爬蟲抓取回來的頁面,進行各種步驟的預處理征绎。
- 提取文字
- 中文分詞
- 消除噪音(比如版權申明文字蹲姐、導航條、廣告等...)
- 索引處理
- 鏈接關系計算
- 特殊文件處理
- ....
除了HTML文件外,搜索引擎還能抓取和索引以文字為基礎的多種文件類型淤堵,如PDF寝衫、WORD顷扩、WPS拐邪、PPT、TXT等隘截。我們在搜索結果中也經常會看到這種文件類型扎阶。
但搜索引擎還不能處理圖片、視頻婶芭、Flash這類非文字內容东臀,也不能執(zhí)行腳本和程序。
第四步:提供檢索服務犀农,網站排名
搜索引擎在對信息進行組織和處理后惰赋,為用戶提供關鍵字檢索服務,將用戶檢索相關的信息展示給用戶呵哨。
同時會根據頁面的PageRank值(鏈接的訪問量排名)來進行網站排名赁濒,這樣Rank值高的網站在搜索結果中會排名較前,當然也可以直接使用 Money 購買搜索引擎網站排名孟害,簡單粗暴拒炎。
但是,這些通用搜索引擎也存在著一定的局限性
:
- 通用搜索引擎所返回的結果都是網頁挨务,而大多情況下击你,網頁里90%的內容對用戶來說都是無用的。
- 不同領域谎柄、不同背景的用戶往往具有不同的檢索目的和需求丁侄,搜索引擎無法提供針對具體某個用戶的搜索結果。
- 萬維網數據形式的豐富和網絡技術的不斷發(fā)展朝巫,圖片鸿摇、數據庫、音頻捍歪、視頻多媒體等不同數據大量出現户辱,通用搜索引擎對這些文件無能為力,不能很好地發(fā)現和獲取糙臼。
- 通用搜索引擎大多提供基于關鍵字的檢索庐镐,難以支持根據語義信息提出的查詢,無法準確理解用戶的具體需求变逃。
針對這些情況必逆,聚焦爬蟲技術得以廣泛使用
聚焦爬蟲
聚焦爬蟲,是"面向特定主題需求"的一種網絡爬蟲程序,它與通用搜索引擎爬蟲的區(qū)別在于: 聚焦爬蟲在實施網頁抓取時會對內容進行處理篩選名眉,盡量保證只抓取與需求相關的網頁信息粟矿。