當今大數(shù)據(jù)的時代,網(wǎng)絡爬蟲已經成為了獲取數(shù)據(jù)的一個重要手段没佑。
但要學習好爬蟲并沒有那么簡單毕贼。首先知識點和方向實在是太多了,它關系到了計算機網(wǎng)絡图筹、編程基礎帅刀、前端開發(fā)让腹、后端開發(fā)、App 開發(fā)與逆向扣溺、網(wǎng)絡安全骇窍、數(shù)據(jù)庫、運維锥余、機器學習腹纳、數(shù)據(jù)分析等各個方向的內容,它像一張大網(wǎng)一樣把現(xiàn)在一些主流的技術棧都連接在了一起驱犹。正因為涵蓋的方向多嘲恍,因此學習的東西也非常零散和雜亂,很多初學者搞不清楚究竟要學習哪些知識雄驹,學習過程中遇到反爬也不知道用什么方法來解決佃牛,本篇我們來做一些歸納和總結。
初學爬蟲
一些最基本的網(wǎng)站医舆,往往不帶任何反爬措施俘侠。比如某個博客站點,我們要爬全站的話就順著列表頁爬到文章頁蔬将,再把文章的時間爷速、作者、正文等信息爬下來就可以了霞怀。
那代碼怎么寫呢惫东?用 Python 的 requests 等庫就夠了,寫一個基本的邏輯毙石,順著把一篇篇文章的源碼獲取下來廉沮,解析的話用 XPath、BeautifulSoup胁黑、PyQuery 或者正則表達式废封,或者粗暴的字符串匹配把想要的內容摳出來,再加個文本寫入存下來就完事了丧蘸。
代碼很簡單,就幾個方法調用遥皂。邏輯很簡單力喷,幾個循環(huán)加存儲。最后就能看到一篇篇文章就被我們存到自己的電腦里面了演训。當然有的同學可能不太會寫代碼或者都懶得寫弟孟,那么利用基本的可視化爬取工具,如某爪魚样悟、某裔采集器也能通過可視化點選的方式把數(shù)據(jù)爬下來拂募。
如果存儲方面稍微擴展一下的話庭猩,可以對接上 MySQL、MongoDB陈症、Elasticsearch蔼水、Kafka 等等來保存數(shù)據(jù),實現(xiàn)持久化存儲录肯。以后查詢或者操作會更方便趴腋。
反正,不管效率如何论咏,一個完全沒有反爬的網(wǎng)站用最最基本的方式就搞定了优炬。
到這里,你就說你會爬蟲了嗎厅贪?不蠢护,還差的遠呢。
對于初學者想更輕松的學好Python開發(fā)养涮,爬蟲技術糊余,Python數(shù)據(jù)分析,人工智能等技術,給大家分享一套系統(tǒng)教學資源单寂,加Python技術的學習裙贬芥;九三七六六七五零九,免費領取宣决。學習過程中有疑問蘸劈,群里有專業(yè)的老司機免費答疑解惑!
Ajax、動態(tài)渲染
隨著互聯(lián)網(wǎng)的發(fā)展尊沸,前端技術也在不斷變化威沫,數(shù)據(jù)的加載方式也不再是單純的服務端渲染了。現(xiàn)在你可以看到很多網(wǎng)站的數(shù)據(jù)可能都是通過接口的形式傳輸?shù)耐葑ǎ蛘呒词共皇墙涌谀且彩且恍?JSON 的數(shù)據(jù)棒掠,然后經過 JavaScript 渲染得出來的。
這時候屁商,你要再用 requests 來爬那就不頂用了烟很,因為 requests 爬下來的源碼是服務端渲染得到的,瀏覽器看到頁面的和 requests 獲取的結果是不一樣的蜡镶。真正的數(shù)據(jù)是經過 JavaScript 執(zhí)行的出來的雾袱,數(shù)據(jù)來源可能是 Ajax,也可能是頁面里的某些 Data官还,也可能是一些 ifame 頁面等等芹橡,不過大多數(shù)情況下可能是 Ajax 接口獲取的。
所以很多情況下需要分析 Ajax望伦,知道這些接口的調用方式之后再用程序來模擬林说。但是有些接口帶著加密參數(shù)煎殷,比如 token、sign 等等腿箩,又不好模擬豪直,咋整呢慨代?
一種方法就是去分析網(wǎng)站的 JavaScript 邏輯耘柱,死摳里面的代碼驳阎,揪出來這些參數(shù)是怎么構造的粉洼,找出思路來了之后再用爬蟲模擬或重寫就行了捺萌。如果你解出來了乃沙,那么直接模擬的方式效率會高非常多抒线,這里面就需要一些 JavaScript 基礎了粟耻,當然有些網(wǎng)站加密邏輯做的太牛逼了垢乙,你可能花一個星期也解不出來锨咙,最后放棄了。
那這樣解不出來或者不想解追逮,那咋辦呢酪刀?這時候可以有一種簡單粗暴的方法就是直接用模擬瀏覽器的方式來爬取,比如用 Puppeteer钮孵、Pyppeteer骂倘、Selenium、Splash 等巴席,這樣爬取到的源代碼就是真正的網(wǎng)頁代碼历涝,數(shù)據(jù)自然就好提取了,同時也就繞過分析 Ajax 和一些 JavaScript 邏輯的過程漾唉。這種方式就做到了可見即可爬荧库,難度也不大,同時模擬了瀏覽器赵刑,也不太會有一些法律方面的問題分衫。
但其實后面的這種方法也會遇到各種反爬的情況,現(xiàn)在很多網(wǎng)站都會去識別 webdriver般此,看到你是用的 Selenium 等工具蚪战,直接干掉或不返回數(shù)據(jù),所以你碰到這種網(wǎng)站還得來專門解一下這個問題恤煞。
多進程屎勘、多線程、協(xié)程
上面的情況如果用單線程的爬蟲來模擬是比較簡單的居扒,但是有個問題就是速度慢啊。
爬蟲是 IO 密集型的任務丑慎,所以可能大多數(shù)情況下都在等待網(wǎng)絡的響應喜喂,如果網(wǎng)絡響應速度慢瓤摧,那就得一直等著。但這個空余的時間其實可以讓 CPU 去做更多事情玉吁。那怎么辦呢照弥?多開點線程吧。
所以這時候我們就可以在某些場景下加上多進程进副、多線程这揣,雖然說多線程有 GIL 鎖,但對于爬蟲來說其實影響沒那么大影斑,所以用上多進程给赞、多線程都可以成倍地提高爬取速度,對應的庫就有 threading矫户、multiprocessing 了片迅。
異步協(xié)程就更牛逼了,用 aiohttp皆辽、gevent柑蛇、tornado 等等的基本上你想搞多少并發(fā)就搞多少并發(fā),但是還是悠著點驱闷,別把人家網(wǎng)站搞掛了耻台。
總之,用上這幾個空另,爬蟲速度就提上來了盆耽。
但速度提上來了不一定是好事,反爬接著肯定就要來了痹换,封你 IP征字、封你賬號、彈驗證碼娇豫、返回假數(shù)據(jù)匙姜,所以有時候龜速爬似乎也是個解決辦法?
分布式
多線程冯痢、多進程氮昧、協(xié)程都能加速,但終究還是單機的爬蟲浦楣。要真正做到規(guī)男浞剩化,還得來靠分布式爬蟲來搞振劳。
分布式的核心是什么椎组?資源共享。比如爬取隊列共享历恐、去重指紋共享等等寸癌。
我們可以使用一些基礎的隊列或組件來實現(xiàn)分布式专筷,比如 RabbitMQ、Celery蒸苇、Kafka磷蛹、Redis 等等,但經過很多人的嘗試溪烤,自己去實現(xiàn)一個分布式爬蟲味咳,性能和擴展性總會出現(xiàn)一些問題,當然特別牛逼的除外哈檬嘀。不少企業(yè)內部其實也有自己開發(fā)的一套分布式爬蟲槽驶,和業(yè)務更緊密,這種當然是最好了枪眉。
現(xiàn)在主流的 Python 分布式爬蟲還是基于 Scrapy 的捺檬,對接 Scrapy-Redis、Scrapy-Redis-BloomFilter 或者用 Scrapy-Cluster 等等贸铜,他們都是基于 Redis 來共享爬取隊列的堡纬,總會多多少少遇到一些內存的問題。所以一些人也考慮對接到了其他的消息隊列上面蒿秦,比如 RabbitMQ烤镐、Kafka 等等,解決一些問題棍鳖,效率也不差炮叶。
總之,要提高爬取效率渡处,分布式還是必須要掌握的镜悉。
驗證碼
爬蟲難免遇到反爬,驗證碼就是其中之一医瘫。要會反爬侣肄,那首先就要會解驗證碼。
現(xiàn)在你可以看到很多網(wǎng)站都會有各種各樣的驗證碼了醇份,比如最簡單的圖形驗證碼稼锅,要是驗證碼的文字規(guī)整的話,OCR 過一遍或者基本的模型庫都能識別僚纷,不想搞這個的話可以直接去對接個打碼平臺來搞矩距,準確率還是有的。
然而你可能現(xiàn)在都見不到什么圖形驗證碼了怖竭,都是一些行為驗證碼锥债,如某驗、某盾等等,國外也有很多赞弥,比如 reCaptcha 等等毅整。一些稍微簡單一點的趣兄,比如滑動的绽左,你可以找點辦法識別缺口,比如圖像處理比對艇潭、深度學習識別都是可以的拼窥。軌跡呢自己寫個模擬正常人行為的,加點抖動之類的蹋凝。有了軌跡之后咋模擬呢鲁纠,如果你牛逼,那么可以直接去分析驗證碼的 JavaScript 邏輯鳍寂,把軌跡數(shù)據(jù)錄入改含,那就能得到里面的一些加密參數(shù),直接拿著這些參數(shù)放到表單或接口里面就能直接用了迄汛。當然也可以用模擬瀏覽器的方式來拖動捍壤,也能通過一定的方式拿到加密參數(shù),或者直接用模擬瀏覽器的方式把登錄一起做了鞍爱,拿著 Cookies 來爬也行鹃觉。
當然拖動只是一種驗證碼,還有文字點選睹逃、邏輯推理等盗扇,要是真不想搞,可以找打碼平臺來解出來再模擬沉填,但畢竟花錢的疗隶,一些高手就會選擇自己訓練深度學習相關的模型,收集數(shù)據(jù)翼闹、標注斑鼻、訓練,針對不同的業(yè)務訓練不同的模型橄碾。這樣有了核心技術卵沉,也不用再去花錢找打碼平臺了,再研究下驗證碼的邏輯模擬一下法牲,加密參數(shù)就能解出來了史汗。不過有的驗證碼難得很,有的我也沒搞定拒垃。
當然有些驗證碼可能是請求過于頻繁而彈出來的停撞,這種如果換個 IP 什么的也能解。
封 IP
封 IP 也是個令人頭疼的事,行之有效的方法就是換代理了戈毒。
代理很多種艰猬,市面上免費的,收費的太多太多了埋市。
首先可以把市面上免費的代理用起來冠桃,自己搭建一個代理池,收集現(xiàn)在全網(wǎng)所有的免費代理道宅,然后加一個測試器一直不斷測試食听,測試的網(wǎng)址可以改成你要爬的網(wǎng)址。這樣測試通過的一般都能直接拿來爬你的目標網(wǎng)站污茵。
付費代理也是一樣樱报,很多商家提供了代理提取接口,請求一下就能獲取幾十幾百個代理泞当,我們可以同樣把它們接入到代理池里面迹蛤。但這個代理也分各種套餐,什么開放代理襟士、獨享代理等等的質量和被封的幾率也是不一樣的盗飒。
有的商家還利用隧道技術搭了代理,這樣代理的地址和端口我們是不知道的敌蜂,代理池是由他們來維護的箩兽,比如某布云,這樣用起來更省心一些章喉,但是可控性就差一些汗贫。
還有更穩(wěn)定的代理,比如撥號代理秸脱、蜂窩代理等等落包,接入成本會高一些,但是一定程度上也能解決一些封 IP 的問題摊唇。
不過這些背后也不簡單咐蝇,為啥一個好好的高匿代理就是莫名其妙爬不了,背后的一些事就不多講了巷查。
封賬號
有些信息需要模擬登錄才能爬嘛有序,如果爬的過快,人家網(wǎng)站直接把你的賬號封禁了岛请,就啥都沒得說了旭寿。比如爬公眾號的,人家把你 WX 號封了崇败,那就全完了盅称。
一種解決方法當然就是放慢頻率肩祥,控制下節(jié)奏。
還有種方法就是看看別的終端缩膝,比如手機頁混狠、App 頁、wap 頁疾层,看看有沒有能繞過登錄的法子将饺。
另外比較好的方法,那就是分流云芦。如果你號足夠多俯逾,建一個池子,比如 Cookies 池舅逸、Token 池、Sign 池反正不管什么池吧皇筛,多個賬號跑出來的 Cookies琉历、Token 都放到這個池子里面,用的時候隨機從里面拿一個水醋。如果你想保證爬取效率不變旗笔,那么 100 個賬號相比 20 個賬號,對于每個賬號對應的 Cookies拄踪、Token 的取用頻率就變成原來的了 1/5蝇恶,那么被封的概率也就隨之降低了。
奇葩的反爬
上面說的是幾種比較主流的反爬惶桐,當然還有非常多奇葩的反爬撮弧。比如返回假數(shù)據(jù)、返回圖片化數(shù)據(jù)姚糊、返回亂序數(shù)據(jù)贿衍、返回罵人的數(shù)據(jù)、返回求饒的數(shù)據(jù)救恨,那都具體情況看著辦吧贸辈。
這些反爬也得小心點,之前見過一個反爬直接返回?rm -rf /?的也不是沒有肠槽,你要是正好有個腳本模擬執(zhí)行返回結果擎淤,后果自己想象哈。
JavaScript 逆向
說到重頭了秸仙。隨著前端技術的進步和網(wǎng)站反爬意識的增強嘴拢,很多網(wǎng)站選擇在前端上下功夫,那就是在前端對一些邏輯或代碼進行加密或混淆筋栋。當然這不僅僅是為了保護前端的代碼不被輕易盜取炊汤,更重要的是反爬。比如很多 Ajax 接口都會帶著一些參數(shù),比如 sign抢腐、token 等等姑曙,這些前文也講過了。這種數(shù)據(jù)我們可以用前文所說的 Selenium 等方式來爬迈倍,但總歸來說效率太低了伤靠,畢竟它模擬的是網(wǎng)頁渲染的整個過程,而真實的數(shù)據(jù)可能僅僅就藏在一個小接口里啼染。
如果我們能夠把一些接口的參數(shù)真正找出其中的邏輯宴合,用代碼來模擬執(zhí)行,那效率就會有成倍的提升迹鹅,而且還能在一定程度上規(guī)避上述的反爬現(xiàn)象卦洽。
但問題是什么?難啊斜棚。
Webpack 是一方面阀蒂,前端代碼都被壓縮和轉碼成一些 bundle 文件,一些變量的含義已經丟失弟蚀,不好還原蚤霞。然后一些網(wǎng)站再加上一些 obfuscator 的機制,把前端代碼變成你完全看不懂的東西义钉,比如字符串拆散打亂昧绣、變量十六進制化、控制流扁平化捶闸、無限 debug夜畴、控制臺禁用等等,前端的代碼和邏輯已經面目全非鉴嗤。有的用 WebAssembly 等技術把前端核心邏輯直接編譯斩启,那就只能慢慢摳了,雖然說有些有一定的技巧醉锅,但是總歸來說還是會花費很多時間兔簇。但一旦解出來了,那就萬事大吉了硬耍。怎么說垄琐?就像奧賽題一樣,解出來升天经柴,解不出來 GG狸窘。
很多公司招聘爬蟲工程師都會問有沒有 JavaScript 逆向基礎,破解過哪些網(wǎng)站坯认,比如某寶翻擒、某多氓涣、某條等等,解出來某個他們需要的可能就直接錄用你陋气。每家網(wǎng)站的邏輯都不一樣劳吠,難度也不一樣。
App
當然爬蟲不僅僅是網(wǎng)頁爬蟲了巩趁,隨著互聯(lián)網(wǎng)時代的發(fā)展痒玩,現(xiàn)在越來越多的公司都選擇將數(shù)據(jù)放到 App 上面,甚至有些公司只有 App 沒有網(wǎng)站议慰。所以數(shù)據(jù)只能通過 App 來爬蠢古。
咋爬呢?基本的就是抓包工具了别凹,Charles草讶、Fiddler 一把梭,抓到接口之后番川,直接拿來模擬就行了到涂。
如果接口有加密參數(shù)怎么辦呢?一種方法你可以邊爬邊處理颁督,比如 mitmproxy 直接監(jiān)聽接口數(shù)據(jù)。另一方面你可以走 Hook浇雹,比如上 Xposed 也可以拿到沉御。
那爬的時候又怎么實現(xiàn)自動化呢?總不能拿手來戳吧昭灵。其實工具也多吠裆,安卓原生的 adb 工具也行,Appium 現(xiàn)在已經是比較主流的方案了烂完,當然還有其他的某精靈都是可以實現(xiàn)的试疙。
最后,有的時候可能真的就不想走自動化的流程抠蚣,我就想把里面的一些接口邏輯摳出來祝旷,那就得搞逆向了,IDA Pro嘶窄、jdax怀跛、FRIDA 等工具就派上用場了,當然這個過程和 JavaScript 逆向一樣很痛苦柄冲,甚至可能得讀匯編指令吻谋。搞一個案例掉一把頭發(fā)也不是不可能的。
智能化
上面的這一通现横,都搞熟了漓拾,恭喜你已經超過了百分之八九十的爬蟲玩家了阁最,當然專門搞 JavaScript 逆向、App 逆向的都是站在食物鏈頂端的男人骇两,這種嚴格來說已經不算爬蟲范疇了速种,這種神我們就不算在里面了,反正我不是脯颜。
除了上面的一些技能哟旗,在一些場合下,我們可能也需要結合一些機器學習的技術栋操,讓我們的爬蟲變得更智能起來闸餐。
比如現(xiàn)在很多博客、新聞文章矾芙,其頁面結構相似度比較高舍沙,要提取的信息也比較類似。
比如如何區(qū)分一個頁面是索引頁還是詳情頁剔宪?如何提取詳情頁的文章鏈接拂铡?如何解析文章頁的頁面內容?這些其實都是可以通過一些算法來計算出來的葱绒。
所以感帅,一些智能解析技術也營運而生,比如提取詳情頁地淀,一位朋友寫的 GeneralNewsExtractor 表現(xiàn)就非常好失球。
假如說我來了一個需求,我要爬取一萬個新聞網(wǎng)站數(shù)據(jù)帮毁,要一個個寫 XPath 嗎实苞?寫死我吧。如果有了智能化解析技術烈疚,在容忍一定錯誤的條件下黔牵,完成這個就是分分鐘的事情。
總之爷肝,如果我們能把這一塊也學會了猾浦,我們的爬蟲技術就會如虎添翼。
運維
這塊也是一個重頭戲阶剑。爬蟲和運維也是息息相關跃巡。
比如寫完一個爬蟲,怎樣去快速部署到 100 臺主機上跑起來牧愁。
比如怎么靈活地監(jiān)控每個爬蟲的運行狀態(tài)素邪。
比如爬蟲有處代碼改動,如何去快速更新猪半。
比如怎樣監(jiān)控一些爬蟲的占用內存兔朦、消耗的 CPU 狀況偷线。
比如怎樣科學地控制爬蟲的定時運行、
比如爬蟲出現(xiàn)了問題沽甥,怎樣能及時收到通知声邦,怎樣設置科學的報警機制。
這里面摆舟,部署大家各有各的方法亥曹,比如用 Ansible 當然可以。如果用 Scrapy 的話有 Scrapyd恨诱,然后配合上一些管理工具也能完成一些監(jiān)控和定時任務媳瞪。不過我現(xiàn)在用的更多是還是 Docker + Kubernetes,再加上 DevOps 一套照宝,比如 GitHub Actions蛇受、Azure Pipelines、Jenkins 等等厕鹃,快速實現(xiàn)分發(fā)和部署兢仰。
定時任務大家有的用 crontab,有的用 apscheduler剂碴,有的用管理工具把将,有的用 Kubernetes,我的話用 Kubernetes 就多一些了忆矛,定時任務也是很好實現(xiàn)秸弛。
至于監(jiān)控的話,也有很多洪碳,專門的一些爬蟲管理工具自帶了一些監(jiān)控和報警功能。一些云服務也帶了一些監(jiān)控的功能叼屠。我用的是 Kubernetes + Prometheus + Grafana瞳腌,什么 CPU、內存镜雨、運行狀態(tài)嫂侍,一目了然,報警機制在 Grafana 里面配一下也很方便荚坞,支持 Webhook挑宠、郵件甚至某釘。
數(shù)據(jù)的存儲和監(jiān)控颓影,用 Kafka各淀、Elasticsearch 個人感覺也挺方便的,我主要用的是后者诡挂,然后再和 Grafana 配合起來碎浇,數(shù)據(jù)爬取量临谱、爬取速度等等監(jiān)控也都一目了然。
結語
至此奴璃,爬蟲的一些涵蓋的知識點也就差不多了悉默,怎么樣,梳理一下苟穆,是不是計算機網(wǎng)絡抄课、編程基礎、前端開發(fā)雳旅、后端開發(fā)跟磨、App 開發(fā)與逆向、網(wǎng)絡安全岭辣、數(shù)據(jù)庫吱晒、運維、機器學習都涵蓋到了沦童?上面總結的可以算是從爬蟲小白到爬蟲高手的路徑了仑濒,里面每個方向其實可研究的點非常多,每個點做精了偷遗,都會非常了不起墩瞳。
爬蟲往往學著學著,就成為了一名全棧工程師或者全干工程師氏豌,因為你可能真的啥都會了喉酌。但是沒辦法啊,都是被爬蟲逼的啊泵喘,如果不是生活所困泪电,誰愿意一身才華呢?