python 3爬取100個(gè)百度百科詞條內(nèi)容

#utf-8

# 引入各個(gè)模塊瀑晒,及創(chuàng)建各個(gè)模塊的類

from baike_spiderimport url_manage, html_downloader, html_parse,html_outputer

class SpiderMain (object):

# 對(duì)各模塊各個(gè)函數(shù)進(jìn)行初始化

? ? def __init__(self):

self.urls = url_manage.UrlManage()# 初始化url管理器的類

? ? ? ? self.downloader = html_downloader.HtmlDownLoader()#下載器

? ? ? ? self.parse = html_parse.HtmlParse()#url解析器

? ? ? ? self.outputer = html_outputer.HtmlOutputer()#輸出器

? ? def craw(self, root_url):# 爬蟲調(diào)度函數(shù)

? ? ? ? count =1

? ? ? ? self.urls.add_new_url (root_url)# 將url添加進(jìn)url管理器中

? ? ? ? while self.urls.has_new_url():

try:

new_url =self.urls.get_new_url()# 添加單個(gè)url

? ? ? ? ? ? ? ? print ("craw 第 %d : %s" % (count, new_url))

html_cont =self.downloader.download(new_url)

new_urls, new_data =self.parse.parse(new_url, html_cont)

self.urls.add_new_urls(new_urls)# 添加批量URL

? ? ? ? ? ? ? ? print(new_urls)

self.outputer.collect_data(new_data)

if count >=10:

break

? ? ? ? ? ? ? ? count +=1

? ? ? ? ? ? except Exception as e:

print (str (e))#輸出發(fā)生的錯(cuò)誤

? ? ? ? ? ? self.outputer.html_output()

if __name__ =="__main__":# 創(chuàng)建main函數(shù)

? ? root_url ="https://baike.baidu.com/item/Python"? # 入口url

? ? obj_spider = SpiderMain()# 創(chuàng)建調(diào)度程序

? ? obj_spider.craw(root_url)# 創(chuàng)建craw函數(shù),啟動(dòng)爬蟲

class UrlManage(object):

def __init__(self):#對(duì)原始變量進(jìn)行初始化

? ? ? ? self.new_urls =set()

self.old_urls =set()

def add_new_url(self,url):#獲取新的url

? ? ? ? if urlis None:

return

? ? ? ? if urlnot in self.new_urlsand urlnot in self.old_urls:

self.new_urls.add(url)

def add_new_urls(self,urls):#批量增加新的urls

? ? ? ? if urlsis None or len(urls) ==0:#判斷urls是否有url

? ? ? ? ? ? return

? ? ? ? for urlin urls:

self.add_new_url(url)

def has_new_url(self):#判斷是否有新的url

? ? ? ? return len(self.new_urls) !=0

? ? def get_new_url(self):#獲取新的url

? ? ? ? new_url =self.new_urls.pop()#對(duì)新的url進(jìn)行刪除

? ? ? ? self.old_urls.add(new_url)#將已經(jīng)爬取過的url增加至舊的urL中

? ? ? ? return new_url#返回新的url


import urllib.request

class HtmlDownLoader(object):

def download(self,url):

if urlis None:

return None

? ? ? ? response = urllib.request.urlopen(url)

if response.getcode() !=200:

return None

? ? ? ? return response.read()


import urllib.parse#python3parse存在與urllib 庫中

import re

from bs4import BeautifulSoup

class HtmlParse(object):

def _get_new_urls(self,page_url,soup):

# view/123.html

? ? ? ? new_urls =set()

links = soup.find_all("a",href = re.compile(r"/item/"))

for linkin links:

new_url = link["href"]

new_full_url = urllib.parse.urljoin(page_url,new_url)

new_urls.add(new_full_url)

return new_urls

def _get_new_data(self,page_url,soup):

res_data = {}

res_data["url"] = page_url

#

Python

? ? ? ? title_node = soup.find("dd",class_ ="lemmaWgt-lemmaTitle-title").find("h1")

res_data["title"] = title_node.get_text()

#

? ? ? ? summary_node = soup.find('div',class_ ="lemma-summary")

if summary_nodeis None:

return

? ? ? ? res_data["summary"] = summary_node.get_text()

return res_data

def parse(self,page_url,html_cont):

if page_urlis None or html_contis None:

return

? ? ? ? soup = BeautifulSoup(html_cont,'html.parser', from_encoding='utf-8')

new_urls =self._get_new_urls(page_url,soup)

new_data =self._get_new_data(page_url,soup)

return new_urls,new_data

class HtmlOutputer(object):

def __init__(self):

self.datas? = []

def collect_data(self,data):

if datais None:

return

? ? ? ? self.datas.append(data)

def html_output(self):

export =open("output.html","w",encoding="utf-8")

export.write("<html>")

export.write ("<body>")

export.write("<table>")

for data in self.datas:

export.write ("<tr>")

export.write ("<td>%s/<td>"%data["url"])

export.write ("<td>%s/<td>" % data["title"])

export.write ("<td>%s/<td>" % data["summary"])

export.write ("</tr>")

export.write ("</table>")

export.write ("</body>")

export.write ("</html>")

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市徘意,隨后出現(xiàn)的幾起案子苔悦,更是在濱河造成了極大的恐慌,老刑警劉巖映砖,帶你破解...
    沈念sama閱讀 217,907評(píng)論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件间坐,死亡現(xiàn)場離奇詭異,居然都是意外死亡邑退,警方通過查閱死者的電腦和手機(jī)竹宋,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,987評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來地技,“玉大人蜈七,你說我怎么就攤上這事∧#” “怎么了飒硅?”我有些...
    開封第一講書人閱讀 164,298評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵砂缩,是天一觀的道長。 經(jīng)常有香客問我三娩,道長庵芭,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,586評(píng)論 1 293
  • 正文 為了忘掉前任雀监,我火速辦了婚禮双吆,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘会前。我一直安慰自己好乐,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,633評(píng)論 6 392
  • 文/花漫 我一把揭開白布瓦宜。 她就那樣靜靜地躺著蔚万,像睡著了一般。 火紅的嫁衣襯著肌膚如雪临庇。 梳的紋絲不亂的頭發(fā)上反璃,一...
    開封第一講書人閱讀 51,488評(píng)論 1 302
  • 那天,我揣著相機(jī)與錄音苔巨,去河邊找鬼版扩。 笑死,一個(gè)胖子當(dāng)著我的面吹牛侄泽,可吹牛的內(nèi)容都是我干的礁芦。 我是一名探鬼主播,決...
    沈念sama閱讀 40,275評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼悼尾,長吁一口氣:“原來是場噩夢啊……” “哼柿扣!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起闺魏,我...
    開封第一講書人閱讀 39,176評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤未状,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后析桥,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體司草,經(jīng)...
    沈念sama閱讀 45,619評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,819評(píng)論 3 336
  • 正文 我和宋清朗相戀三年泡仗,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了埋虹。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,932評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡娩怎,死狀恐怖搔课,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情截亦,我是刑警寧澤爬泥,帶...
    沈念sama閱讀 35,655評(píng)論 5 346
  • 正文 年R本政府宣布柬讨,位于F島的核電站,受9級(jí)特大地震影響袍啡,放射性物質(zhì)發(fā)生泄漏踩官。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,265評(píng)論 3 329
  • 文/蒙蒙 一葬馋、第九天 我趴在偏房一處隱蔽的房頂上張望卖鲤。 院中可真熱鬧,春花似錦畴嘶、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,871評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至偷拔,卻和暖如春蒋院,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背莲绰。 一陣腳步聲響...
    開封第一講書人閱讀 32,994評(píng)論 1 269
  • 我被黑心中介騙來泰國打工欺旧, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人蛤签。 一個(gè)月前我還...
    沈念sama閱讀 48,095評(píng)論 3 370
  • 正文 我出身青樓辞友,卻偏偏與公主長得像,于是被迫代替她去往敵國和親震肮。 傳聞我的和親對(duì)象是個(gè)殘疾皇子称龙,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,884評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容