本專題以項目為驅(qū)動爷耀,從基本的網(wǎng)絡請求和頁面解析開始甘桑,逐步深入到 scrapy爬蟲框架,在講解完庫之后歹叮,會跟上對應的實踐項目跑杭,有興趣朋友的可以跟著實踐自己敲代碼或者完成我留下的 bug,把代碼發(fā)到評論區(qū)咆耿,我會不定時查看德谅。
本專題假設讀者有一定的python基礎,所以并不會講python的基本語法萨螺,遇到語法問題可以評論求助窄做。
因為本專題涉及的庫比較多,而且作者不能把時間全部用在更新上屑迂,所以本專題完成的時間可能較長浸策,在本專題中會涉及到以下主題:
1、requests 庫
(網(wǎng)絡請求)
2惹盼、lxml 庫 和 xpath 用法
(htnl頁面解析)
4庸汗、html 網(wǎng)頁的解析
5、數(shù)據(jù)的處理和存儲(json手报,csv)
6蚯舱、threading 庫 (多線程)
7、asyncio 庫 (異步)
8掩蛤、數(shù)據(jù)庫 以及 orm
9枉昏、scrapy 爬蟲框架
在寫這些的時候,我也在不斷地學習揍鸟,如果我在學習的過程中發(fā)現(xiàn)了更好的庫兄裂,就會換一個庫講,但是上面所列的點是不會變的阳藻。
最后晰奖,如果在文章中出現(xiàn)了錯誤,歡迎在評論中指出腥泥,我會在后續(xù)的更新中修改匾南。
謝謝