由于本學(xué)期好多神都選了Cisco網(wǎng)絡(luò)課, 而我這等弱渣沒選, 去蹭了一節(jié)發(fā)現(xiàn)講的內(nèi)容雖然我不懂但是還是無愛. 我想既然都本科就出來工作還是按照自己愛好來點技能吧, 于是我就不去了. 一個人在宿舍沒有點計劃好的事情做就會很容易虛度, 正好這個學(xué)期主打網(wǎng)絡(luò)與數(shù)據(jù)庫開發(fā), 那就先學(xué)學(xué)Python開發(fā)爬蟲吧. 我失散多年的好朋友Jay Loong突然說他會爬蟲了, 點擊鏈接加入群【我愛python大神】:https://jq.qq.com/?_wv=1027&k=47xNlOU我感到真棒, 我也要學(xué) :D 因為一個星期有兩節(jié)Cisco課, 所以本系列博文也就一周兩更.選擇一門語言爬蟲可以用各種語言寫, C++, Java都可以, 為什么要Python? 首先用C++搞網(wǎng)絡(luò)開發(fā)的例子不多(可能是我見得太少), 然后由于Oracle收購了Sun, Java目前雖然在Android開發(fā)上很重要, 但是如果Google官司進(jìn)展不順利, 那么很有可能用Go語言替代掉Java來做Android開發(fā). 在這計算機(jī)速度高速增長的年代里, 選語言都要看他爹的業(yè)績, 真是稍不注意就落后于時代. 隨著計算機(jī)速度的高速發(fā)展, 某種語言開發(fā)的軟件運(yùn)行的時間復(fù)雜度的常數(shù)系數(shù)已經(jīng)不像以前那么重要, 我們可以越來越偏愛為程序員打造的而不是為計算機(jī)打造的語言. 比如Ruby這種傳說中的純種而又飄逸的的OOP語言, 或者Python這種稍嚴(yán)謹(jǐn)而流行庫又非常多的語言, 都大大弱化了針對計算機(jī)運(yùn)行速度而打造的特性, 強(qiáng)化了為程序員容易思考而打造的特性. 所以我選擇Python. 選擇Python版本有2和3兩個版本, 3比較新, 聽說改動大. 根據(jù)我在知乎上搜集的觀點來看, 我還是傾向于使用"在趨勢中將會越來越火"的版本, 而非"目前已經(jīng)很穩(wěn)定而且很成熟"的版本. 這是個人喜好, 而且預(yù)測不一定準(zhǔn)確. 但是如果Python3無法像Python2那么火, 那么整個Python語言就不可避免的隨著時間的推移越來越落后, 因此我想其實選哪個的最壞風(fēng)險都一樣, 但是最好回報卻是Python3的大. 其實兩者區(qū)別也可以說大也可以說不大, 最終都不是什么大問題. 我選擇的是Python 3. 選擇參考資料由于我是一邊學(xué)一邊寫, 而不是我完全學(xué)會了之后才開始很有條理的寫, 所以參考資料就很重要(本來應(yīng)該是個人開發(fā)經(jīng)驗很重要, 但我是零基礎(chǔ)).Python官方文檔知乎相關(guān)資料(1) 這篇非常好, 通俗易懂的總覽整個Python學(xué)習(xí)框架.知乎相關(guān)資料(2)寫到這里的時候, 上面第二第三個鏈接的票數(shù)第一的回答已經(jīng)看完了, 點擊鏈接加入群【我愛python大神】:https://jq.qq.com/?_wv=1027&k=47xNlOU他們提到的有些部分(比如爬行的路線不能有回路)我就不寫了. 一個簡單的偽代碼以下這個簡單的偽代碼用到了set和queue這兩種經(jīng)典的數(shù)據(jù)結(jié)構(gòu), 集與隊列. 集的作用是記錄那些已經(jīng)訪問過的頁面, 隊列的作用是進(jìn)行廣度優(yōu)先搜索.queue Qset SStartPoint = "http://jecvay.com"Q.push(StartPoint)? # 經(jīng)典的BFS開頭S.insert(StartPoint)? # 訪問一個頁面之前先標(biāo)記他為已訪問while (Q.empty() == false)? # BFS循環(huán)體? T = Q.top()? # 并且pop? for point in PageUrl(T)? # PageUrl(T)是指頁面T中所有url的集合, point是這個集合中的一個元素.? ? if (point not in S)? ? ? Q.push(point)? ? ? S.insert(point)1234567891011queue Qset SStartPoint = "http://jecvay.com"Q.push(StartPoint)? # 經(jīng)典的BFS開頭S.insert(StartPoint)? # 訪問一個頁面之前先標(biāo)記他為已訪問while (Q.empty() == false)? # BFS循環(huán)體? T = Q.top()? # 并且pop? for point in PageUrl(T)? # PageUrl(T)是指頁面T中所有url的集合, point是這個集合中的一個元素.? ? if (point not in S)? ? ? Q.push(point)? ? ? S.insert(point)這個偽代碼不能執(zhí)行,? 我覺得我寫的有的不倫不類, 不類Python也不類C++.. 但是我相信看懂是沒問題的, 這就是個最簡單的BFS結(jié)構(gòu). 我是看了知乎里面的那個偽代碼之后, 自己用我的風(fēng)格寫了一遍. 你也需要用你的風(fēng)格寫一遍.這里用到的Set其內(nèi)部原理是采用了Hash表, 傳統(tǒng)的Hash對爬蟲來說占用空間太大, 因此有一種叫做Bloom Filter的數(shù)據(jù)結(jié)構(gòu)更適合用在這里替代Hash版本的set. 我打算以后再看這個數(shù)據(jù)結(jié)構(gòu)怎么使用, 現(xiàn)在先跳過, 因為對于零基礎(chǔ)的我來說, 這不是重點. 代碼實現(xiàn)(一): 用Python抓取指定頁面我使用的編輯器是Idle, 安裝好Python3后這個編輯器也安裝好了, 小巧輕便, 按一個F5就能運(yùn)行并顯示結(jié)果. 代碼如下:#encoding:UTF-8import urllib.requesturl = "http://www.baidu.com"data = urllib.request.urlopen(url).read()data = data.decode('UTF-8')print(data)1234567#encoding:UTF-8import urllib.request url = "http://www.baidu.com"data = urllib.request.urlopen(url).read()data = data.decode('UTF-8')print(data)b0ea9ff58c6ba7c21738257af9af92e3urllib.request是一個庫, 隸屬urllib. 點此打開官方相關(guān)文檔. 官方文檔應(yīng)該怎么使用呢? 首先點剛剛提到的這個鏈接進(jìn)去的頁面有urllib的幾個子庫, 我們暫時用到了request, 所以我們先看urllib.request部分. 首先看到的是一句話介紹這個庫是干什么用的:The urllib.request module defines functions and classes which help in opening URLs (mostly HTTP) in a complex world — basic and digest authentication, redirections, cookies and more.然后把我們代碼中用到的urlopen()函數(shù)部分閱讀完.urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False)重點部分是返回值, 這個函數(shù)返回一個 http.client.HTTPResponse 對象, 這個對象又有各種方法, 比如我們用到的read()方法, 這些方法都可以根據(jù)官方文檔的鏈接鏈過去. 根據(jù)官方文檔所寫, 我用控制臺運(yùn)行完畢上面這個程序后, 又繼續(xù)運(yùn)行如下代碼, 以更熟悉這些亂七八糟的方法是干什么的.>>> a = urllib.request.urlopen(full_url)>>> type(a)>>> a.geturl()'http://www.baidu.com/s?word=Jecvay'>>> a.info()>>> a.getcode()
點擊鏈接加入群【+學(xué)習(xí)交流】:https://jq.qq.com/?_wv=1027&k=47xRw91
200
代碼實現(xiàn)(二): 用Python簡單處理URL
如果要抓取百度上面搜索關(guān)鍵詞為Jecvay Notes的網(wǎng)頁, 則代碼如下
import urllib
import urllib.request
data={}
data['word']='Jecvay Notes'
url_values=urllib.parse.urlencode(data)
url="http://www.baidu.com/s?"
full_url=url+url_values
data=urllib.request.urlopen(full_url).read()
data=data.decode('UTF-8')
print(data)
1
2
3
4
5
6
7
8
9
10
11
12
13
import urllib
import urllib.request
data={}
data['word']='Jecvay Notes'
url_values=urllib.parse.urlencode(data)
url="http://www.baidu.com/s?"
full_url=url+url_values
data=urllib.request.urlopen(full_url).read()
data=data.decode('UTF-8')
print(data)
data是一個字典, 然后通過urllib.parse.urlencode()來將data轉(zhuǎn)換為 'word=Jecvay+Notes'的字符串, 最后和url合并為full_url, 其余和上面那個最簡單的例子相同. 關(guān)于urlencode(), 同樣通過官方文檔學(xué)習(xí)一下他是干什么的. 通過查看
urllib.parse.urlencode(query, doseq=False, safe='', encoding=None, errors=None)
urllib.parse.quote_plus(string, safe='', encoding=None, errors=None)
大概知道他是把一個通俗的字符串, 轉(zhuǎn)化為url格式的字符串.點擊鏈接加入群【+學(xué)習(xí)交流】:https://jq.qq.com/?_wv=1027&k=47xRw91
學(xué)好python你需要一個良好的環(huán)境患久,一個優(yōu)質(zhì)的開發(fā)交流群剩辟,群里都是那種相互幫助的人才是可以的,我有建立一個python學(xué)習(xí)交流群歉秫,在群里我們相互幫助兰珍,相互關(guān)心捶牢,相互分享內(nèi)容崖叫,這樣出問題幫助你的人就比較多欣范,群號是304加上050最後799变泄,這樣就可以找到大神聚合的群,如果你只愿意別人幫助你恼琼,不愿意分享或者幫助別人妨蛹,那就請不要加了,你把你會的告訴別人這是一種分享晴竞。
感覺寫的好蛙卤,對你有幫助,就點個贊唄噩死,別光只收藏哈.~( ̄▽ ̄)~
?