本專題以項目為驅(qū)動,從基本的網(wǎng)絡(luò)請求和頁面解析開始冕广,逐步深入到 scrapy爬蟲框架疏日,在講解完庫之后,會跟上對應(yīng)的實踐項目撒汉,有興趣朋友的可以跟著實踐自己敲代碼或者完成我留下的 bug沟优,把代碼發(fā)到評論區(qū),我會不定時查看睬辐。
本專題假設(shè)讀者有一定的python基礎(chǔ)挠阁,所以并不會講python的基本語法,遇到語法問題可以評論求助溯饵。
因為本專題涉及的庫比較多侵俗,而且作者不能把時間全部用在更新上,所以本專題完成的時間可能較長丰刊,在本專題中會涉及到以下主題:
1隘谣、requests 庫
(網(wǎng)絡(luò)請求)
2、lxml 庫 和 xpath 用法
(htnl頁面解析)
4啄巧、html 網(wǎng)頁的解析
5寻歧、數(shù)據(jù)的處理和存儲(json掌栅,csv)
6、threading 庫 (多線程)
7熄求、asyncio 庫 (異步)
8渣玲、數(shù)據(jù)庫 以及 orm
9、scrapy 爬蟲框架
在寫這些的時候弟晚,我也在不斷地學習忘衍,如果我在學習的過程中發(fā)現(xiàn)了更好的庫,就會換一個庫講卿城,但是上面所列的點是不會變的枚钓。
最后,如果在文章中出現(xiàn)了錯誤瑟押,歡迎在評論中指出搀捷,我會在后續(xù)的更新中修改。
謝謝